Databricks Runtime 5.0 (EoS)
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.
Diese Version wurde von Databricks im November 2018 veröffentlicht.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 5.0 mit Unterstützung durch Apache Spark.
Neue Funktionen
Delta Lake
- Unterabfragen werden jetzt in der
WHERE
-Klausel unterstützt, um Unterstützung für die BefehleDELETE
undUPDATE
zu bieten. - Neue skalierbare Implementierung für
MERGE
-Befehle.- Keine Beschränkung der Anzahl von Einfüge- und Aktualisierungsvorgängen.
- Kann für SCD-Abfragen vom Typ 1 und Typ 2 verwendet werden.
- Kann für Upserts aus Streamingabfragen im „Update“-Modus verwendet werden (z. B. zum Schreiben der Streamingaggregationsausgabe in eine Delta-Tabelle). Weitere Informationen finden Sie im Notebook Schreiben von Streamingaggregaten in Databricks Delta mit MERGE und foreachBatch.
- Unterabfragen werden jetzt in der
Strukturiertes Streaming
- Auf Azure Blob Storage-Dateibenachrichtigungen basierende Streamingquelle. Dadurch können die Auflistungskosten beim Ausführen einer strukturierten Streamingabfrage für Dateien in Azure Blob Storage erheblich reduziert werden. Anstatt eine Auflistung zu verwenden, um neue Dateien für die Verarbeitung zu ermitteln, kann diese Streamingquelle Dateiereignisbenachrichtigungen direkt lesen, um neue Dateien zu finden. Weitere Informationen finden Sie unter Azure Blob storage file source with Azure Queue Storage (legacy) (Azure Blob Storage-Dateiquelle mit Azure Queue Storage (Legacy)).
Unterstützung für TensorBoard zur Überwachung von Deep Learning-Aufträgen hinzugefügt. Weitere Informationen finden Sie unter TensorBoard.
Verbesserungen
- Delta Lake
OPTIMIZE
für Leistung und Stabilität.- Der Befehl
OPTIMIZE
committet Batches nicht am Ende des Vorgangs, sondern so früh wie möglich. - Dadurch wird die Standardanzahl an Threads reduziert, die
OPTIMIZE
parallel ausführt. Dies bietet eine erhebliche Leistungssteigerung für große Tabellen. - Beschleunigte
OPTIMIZE
-Schreibvorgänge, indem eine unnötige Sortierung von Daten beim Schreiben in eine partitionierte Tabelle vermieden wird. - Beschleunigung von
OPTIMIZE ZORDER BY
, indem zu einer inkrementellen Verarbeitung gewechselt wird. Dies bedeutet, dass der Befehl jetzt das Umschreiben von Datendateien vermeidet, die bereits in Z-Reihenfolge nach denselben Spalte(n) geordnet wurden. Weitere Informationen finden Sie unter Überspringen von Daten für Delta Lake.
- Der Befehl
- Momentaufnahmenisolation beim Abfragen von Delta-Tabellen. Jede Abfrage mit mehreren Verweisen auf eine Delta-Tabelle (z. B. Selbstverknüpfung) liest aus derselben Tabellenmomentaufnahme. Dies gilt auch bei gleichzeitigen Aktualisierungen der Tabelle.
- Verbesserte Abfragelatenz beim Lesen aus kleinen Delta-Tabellen (< 2.000 Dateien) durch Zwischenspeichern von Metadaten im Treiber.
- Verbesserte Leistung der logistischen MLlib-Regression.
- Verbesserte Leistung des MLlib-Strukturalgorithmus.
- Mehrere Java- und Scala-Bibliotheken haben ein Upgrade erhalten. Weitere Informationen finden Sie unter Installierte Java- und Scala-Bibliotheken (Scala 2.11-Clusterversion).
- Einige installierte Python-Bibliotheken haben ein Upgrade erhalten:
- pip: 10.0.1 auf 18.0
- setuptools: 39.2.0 auf 40.4.1
- tornado: 5.0.2 auf 5.1.1
- Für mehrere installierte R-Bibliotheken wurde ein Upgrade durchgeführt. Weitere Informationen finden Sie unter Installierte R-Bibliotheken.
Fehlerkorrekturen
- Delta Lake
- Konfigurationen, die in SQL-Konfigurationseinstellungen festgelegt wurden, werden jetzt ordnungsgemäß auf Delta Lake-Vorgänge angewendet, die zunächst in ein anderes Notebook geladen wurden.
- Im Befehl
DELETE
wurde ein Fehler behoben, durch den die Zeilen, in denen die Bedingung als NULL ausgewertet wird, fälschlicherweise gelöscht wurden. - Bei Streams, bei denen die Verarbeitung des anfänglichen Batches mehr als zwei Tage dauert (also der Daten, die sich beim Starten des Streams in der Tabelle befanden), tritt beim Versuch, eine Wiederherstellung von einem Prüfpunkt durchzuführen, nicht länger ein
FileNotFoundException
-Fehler auf. - Vermeidet eine Racebedingung, die beim Laden einer neuen Tabelle zu
NoClassDefError
führte. - Korrektur für
VACUUM
, wobei der Vorgang gegebenenfalls mit folgendem AssertionError-Fehler abgebrochen wurde: „Hier sollten keine absoluten Pfade für den Löschvorgang vorhanden sein.“ - Problem beim Befehl
SHOW CREATE TABLE
korrigiert, um von Hive generierte Speichereigenschaften nicht einzuschließen.
- Executors, die viele
NoClassDefFoundError
-Fehler für interne Spark-Klassen auslösen, werden jetzt automatisch neu gestartet, um das Problem zu beheben.
Bekannte Probleme
- Bei Spaltennamen, die in der Option
replaceWhere
für denoverwrite
-Modus in Delta Lake angegeben sind, wird die Groß-/Kleinschreibung selbst dann beachtet, wenn die Groß-/Kleinschreibung laut Standardeinstellung nicht beachtet werden soll. - Der Snowflake-Connector für Databricks Runtime 5.0 befindet sich in der Vorschau.
- Wenn Sie eine gerade ausgeführte Streamingzelle in einem Notebook abbrechen, das an einen Databricks Runtime 5.0-Cluster angefügt ist, können Sie nachfolgende Befehle im Notebook erst dann ausführen, wenn Sie den Notebookstatus löschen oder den Cluster neu starten. Eine Problemumgehung finden Sie in der Wissensdatenbank.
Apache Spark
Databricks Runtime 5.0 enthält Apache Spark 2.4.0.
Core und Spark SQL
Hinweis
Dieser Artikel enthält Verweise auf den Begriff Slave, einen Begriff, den Azure Databricks nicht verwendet. Sobald der Begriff aus der Software entfernt wird, wird er auch aus diesem Artikel entfernt.
Hauptfeatures
- Barriereausführungsmodus: [SPARK-24374] Unterstützung des Barriereausführungsmodus im Planer, um eine bessere Integration in Deep Learning-Frameworks zu ermöglichen.
- Scala 2.12-Unterstützung: [SPARK-14220] Experimentelle Scala 2.12-Unterstützung hinzugefügt. Sie können jetzt Spark mit Scala 2.12 erstellen und Spark-Anwendungen in Scala 2.12 schreiben.
- Übergeordnete Funktionen: [SPARK-23899] Eine Vielzahl neuer integrierter Funktionen wurden hinzugefügt (einschließlich übergeordneter Funktionen), um die Arbeit mit komplexen Datentypen zu vereinfachen. Weitere Informationen finden Sie unter Integrierte Apache Spark-Funktionen.
- Integrierte Avro-Datenquelle: [SPARK-24768] Inline-Spark-Avro-Paket mit Unterstützung logischer Typen sowie höherer Leistung und Benutzerfreundlichkeit.
API
- [SPARK-24035] SQL-Syntax für Pivot
- [SPARK-24940] Hinweis zum Zusammenfügen und zur Neupartitionierung für SQL-Abfragen
- [SPARK-19602] Unterstützung der Spaltenauflösung für vollqualifizierten Spaltennamen
- [SPARK-21274] Implementierung von EXCEPT ALL und INTERSECT ALL
Leistung und Stabilität
- [SPARK-16406] Beschleunigung der Verweisauflösung bei einer großen Anzahl von Spalten
- [SPARK-23486] Zwischenspeichern des Funktionsnamens aus dem externen Katalog für lookupFunctions
- [SPARK-23803] Unterstützung der Bucketbereinigung
- [SPARK-24802] Ausschluss von Optimierungsregeln
- [SPARK-4502] Bereinigung geschachtelter Schemas für Parquet-Tabellen
- [SPARK-24296] Unterstützung für die Replikation von Blöcken mit einer Größe von mehr als 2 GB
- [SPARK-24307] Unterstützung für das Senden von Nachrichten mit einer Größe von mehr als 2 GB aus dem Arbeitsspeicher
- [SPARK-23243] Shuffle und Neupartitionierung in einem RDD kann zu falschen Antworten führen
- [SPARK-25181] Einschränkung der Größe von über- und untergeordneten BlockManager-Threadpools für einen geringeren Arbeitsspeicheroverhead bei langsamer Netzwerkverbindung
Connectors
- [SPARK-23972] Parquet-Update von 1.8.2 auf 1.10.0
- [SPARK-25419] Verbesserung des Parquet-Prädikatpushdowns
- [SPARK-23456] Nativer ORC-Leser standardmäßig aktiviert
- [SPARK-22279] Standardmäßiges Verwenden des nativen ORC-Lesers für Hive-SerDe-Tabellen
- [SPARK-21783] Standardmäßiges Aktivieren des ORC-Filterpushdowns
- [SPARK-24959] Beschleunigung von count() für JSON und CSV
- [SPARK-24244] Ausschließliche Analyse erforderlicher Spalten für den CSV-Parser
- [SPARK-23786] CSV-Schemavalidierung – keine Überprüfung der Spaltennamen
- [SPARK-24423] Optionsabfrage zur Angabe der Abfrage für das Lesen aus JDBC
- [SPARK-22814] Unterstützung von Datum/Zeitstempel in der JDBC-Partitionsspalte
- [SPARK-24771] Avro-Update von 1.7.7 auf 1.8
PySpark
- [SPARK-24215] Implementierung der strengen Auswertung für DataFrame-APIs
- [SPARK-22274] - [SPARK-22239] Benutzerdefinierte Aggregationsfunktionen mit pandas-UDF
- [SPARK-24396] ForeachWriter für strukturierten Stream für Python hinzugefügt
- [SPARK-23874] Upgrade von Apache Arrow auf 0.10.0
- [SPARK-25004] spark.executor.pyspark.memory-Grenzwert hinzugefügt
- [SPARK-23030] Verwendung des Arrow-Streamformats zum Erstellen und Erfassen von pandas-DataFrames
- [SPARK-24624] Unterstützung einer Kombination aus Python-UDF und Skalar-pandas-UDF
Weitere wichtige Änderungen
- [SPARK-24596] Nicht kaskadierende Cacheinvalidierung
- [SPARK-23880] Kein Auslösen von Aufträgen für Cachedaten
- [SPARK-23510][SPARK-24312] Unterstützung von Hive 2.2- und Hive 2.3-Metastores
- [SPARK-23711] Fallbackgenerator für UnsafeProjection hinzugefügt
- [SPARK-24626] Parallelisierung der Speicherortgrößenberechnung im Befehl zum Analysieren von Tabellen
Strukturiertes Streaming
Hauptfeatures
- [SPARK-24565] Anzeigen der Ausgabezeilen der einzelnen Microbatches als DataFrame mithilfe von foreachBatch (Python, Scala und Java)
- [SPARK-24396] Python-API für foreach und ForeachWriter hinzugefügt
- [SPARK-25005] Unterstützung von „kafka.isolation.level“, um nur committete Datensätze aus Kafka-Themen zu lesen, die mit einem Transaktionsproducer geschrieben wurden.
Weitere wichtige Änderungen
- [SPARK-24662] Unterstützung des LIMIT-Operators für Streams im Append- oder Complete-Modus
- [SPARK-24763] Redundante Schlüsseldaten wurden aus dem Wert in der Streamingaggregation entfernt
- [SPARK-24156] Schnellere Generierung von Ausgabeergebnissen und/oder Zustandsbereinigung mit zustandsbehafteten Vorgängen (mapGroupsWithState, Stream-Stream-Join, Streamingaggregation, Streaming-dropDuplicates), wenn keine Daten im Eingabestream enthalten sind.
- [SPARK-24730] Unterstützung der Auswahl von Mindest- oder Maximalwerten, wenn in einer Abfrage mehrere Eingabestreams vorhanden sind
- [SPARK-25399] Der Fehler, bei dem die Wiederverwendung von Ausführungsthreads bei der kontinuierlichen Verarbeitung für das Microbatchstreaming gegebenenfalls zu falschen Angaben führte, wurde behoben
- [SPARK-18057] Upgrade der Kafka-Clientversion von 0.10.0.1 auf 2.0.0
MLlib
Hauptfeatures
- [SPARK-22666] Spark-Datenquelle für Bildformat
Weitere wichtige Änderungen
- [SPARK-22119][SPARK-23412][SPARK-23217] Kosinusdistanzmeasure zum KMeans/BisectingKMeans/Clustering-Auswerter hinzugefügt
- [SPARK-10697] Prognoseberechnung in Assoziationsregel-Mining
- [SPARK-14682][SPARK-24231] Bereitstellung der evaluateEachIteration-Methode oder einer äquivalenten Methode für spark.ml-GBTs
- [SPARK-7132][SPARK-24333] Anpassung mit Validierungssatz zu spark.ml-GBT hinzugefügt
- [SPARK-15784][SPARK-19826] Power Iteration Clustering zu spark.ml hinzugefügt
- [SPARK-15064] Gebietsschemaunterstützung in StopWordsRemover
- [SPARK-21741] Python-API für DataFrame-basierte multivariate Zusammenfassung
- [SPARK-21898][SPARK-23751] Featureparität für KolmogorovSmirnovTest in MLlib
- [SPARK-10884] Vorhersageunterstützung bei Einzelinstanzen für regressions- und klassifizierungsbezogene Modelle
- [SPARK-23783] Neues generisches Exportmerkmal für ML-Pipelines hinzugefügt
- [SPARK-11239] PMML-Export für lineare ML-Regression
SparkR
- [SPARK-25393] Neue Funktion from_csv() hinzugefügt
- [SPARK-21291] R-partitionBy-API in DataFrame hinzugefügt
- [SPARK-25007] array_intersect/array_except/array_union/shuffle zu SparkR hinzugefügt
- [SPARK-25234] Verhindern von Integerüberlauf bei Parallelisierung
- [SPARK-25117] EXCEPT ALL- und INTERSECT ALL-Unterstützung in R hinzugefügt
- [SPARK-24537] array_remove / array_zip / map_from_arrays / array_distinct hinzugefügt
- [SPARK-24187] array_join-Funktion zu SparkR hinzugefügt
- [SPARK-24331] arrays_overlap, array_repeat, map_entries zu SparkR hinzugefügt
- [SPARK-24198] Slicefunktion zu SparkR hinzugefügt
- [SPARK-24197] array_sort-Funktion zu SparkR hinzugefügt
- [SPARK-24185] Vereinfachungsfunktion zu SparkR hinzugefügt
- [SPARK-24069] array_min- / array_max-Funktionen hinzugefügt
- [SPARK-24054] array_position-Funktion / element_at-Funktionen hinzugefügt
- [SPARK-23770] repartitionByRange-API in SparkR hinzugefügt
GraphX
- [SPARK-25268] Ausführen von Parallel Personalized PageRank führt zu Serialisierungsausnahme
Veraltete Funktionen
- [SPARK-23451] KMeans computeCost als veraltet gekennzeichnet
- [SPARK-25345] readImages-APIs in ImageSchema als veraltet gekennzeichnet
Verhaltensänderungen
- [SPARK-23549] Umwandlung in Zeitstempel beim Vergleich des Zeitstempels mit dem Datum
- [SPARK-24324] pandas-Grouped Map-UDF sollte Ergebnisspalten nach dem Namen zuweisen
- [SPARK-25088] Standard- und Dokumentationsupdates für Rest Server
- [SPARK-23425] Laden von Daten für HDFS-Dateipfad mit Platzhalter funktioniert nicht ordnungsgemäß
- [SPARK-23173] from_json kann bei Feldern, die als Non-Nullable gekennzeichnet sind, zu NULL-Werten führen
- [SPARK-24966] Implementierung von Rangfolgenregeln für set-Vorgänge
- [SPARK-25708] HAVING ohne GROUP BY sollte eine globale Aggregation sein
- [SPARK-24341] Ordnungsgemäße Verarbeitung von mehrwertigen IN-Unterabfragen
- [SPARK-19724] Erstellen einer verwalteten Tabelle mit einem vorhandenen Standardspeicherort sollte eine Ausnahme auslösen
Bekannte Probleme
- [SPARK-25793] Fehler beim Laden von Modell in BisectingKMeans
- [SPARK-25271] Bei CTAS mit Hive-Parquet-Tabellen sollte die native Parquet-Quelle verwendet werden
- [SPARK-24935] Problem beim Ausführen von Hive-UDAFs ab Spark 2.2
Wartungsupdates
Weitere Informationen finden Sie unter Databricks Runtime 5.0-Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 16.04.5 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 für Python 2-Cluster und 3.5.2 für Python 3-Cluster.
- R: R-Version 3.4.4 (2018-03-15)
- GPU-Cluster: Die folgenden NVIDIA-GPU-Bibliotheken sind installiert:
- Tesla-Treiber 375.66
- CUDA 9.0
- cuDNN 7.0
Hinweis
Scala 2.12 wird zwar in Apache Spark 2.4 unterstützt, jedoch nicht in Databricks Runtime 5.0.
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
cryptography | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0.999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 18.0 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
Python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
requests | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0,32 | seaborn | 0.7.1 |
setuptools | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | sechs | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.1.1 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.31.1 |
wsgiref | 0.1.2 |
Installierte R-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
base | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
bindr | 0.1.1 | bindrcpp | 0.2.2 | bit | 1.1-14 |
bit64 | 0.9-7 | bitops | 1.0-6 | Blob | 1.1.1 |
boot | 1.3-20 | brew | 1.0-6 | broom | 0.5.0 |
callr | 3.0.0 | Auto | 3.0-2 | carData | 3.0-1 |
caret | 6.0-80 | cellranger | 1.1.0 | chron | 2.3-52 |
class | 7.3-14 | cli | 1.0.0 | cluster | 2.0.7-1 |
codetools | 0.2-15 | colorspace | 1.3-2 | commonmark | 1.5 |
compiler | 3.4.4 | crayon | 1.3.4 | curl | 3.2 |
CVST | 0.2-2 | data.table | 1.11.4 | datasets | 3.4.4 |
DBI | 1.0.0 | ddalpha | 1.3.4 | DEoptimR | 1,0 - 8 |
desc | 1.2.0 | devtools | 1.13.6 | digest | 0.6.16 |
dimRed | 0.1.0 | doMC | 1.3.5 | dplyr | 0.7.6 |
DRR | 0.0.3 | fansi | 0.3.0 | forcats | 0.3.0 |
foreach | 1.4.4 | foreign | 0.8-70 | gbm | 2.1.3 |
Geometrie | 0.3-6 | ggplot2 | 3.0.0 | git2r | 0.23.0 |
glmnet | 2.0-16 | glue | 1.3.0 | gower | 0.1.2 |
Grafiken | 3.4.4 | grDevices | 3.4.4 | grid | 3.4.4 |
gsubfn | 0.7 | gtable | 0.2.0 | h2o | 3.20.0.2 |
haven | 1.1.2 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
iterators | 1.0.10 | jsonlite | 1.5 | kernlab | 0.9-27 |
KernSmooth | 2.23-15 | labeling | 0,3 | lattice | 0.20-35 |
lava | 1.6.3 | lazyeval | 0.2.1 | littler | 0.3.4 |
lme4 | 1.1-18-1 | lubridate | 1.7.4 | magic | 1.5-8 |
magrittr | 1.5 | mapproj | 1.2.6 | maps | 3.3.0 |
maptools | 0.9-3 | MASS | 7.3-50 | Matrix | 1.2-14 |
MatrixModels | 0.4-1 | memoise | 1.1.0 | methods | 3.4.4 |
mgcv | 1.8-24 | mime | 0,5 | minqa | 1.2.4 |
ModelMetrics | 1.2.0 | munsell | 0.5.0 | mvtnorm | 1,0 - 8 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsx | 4.1.0 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | pillar | 1.3.0 |
pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.0 | plogr | 0.2.0 | pls | 2.7-0 |
plyr | 1.8.4 | praise | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.12.1 | processx | 3.2.0 | prodlim | 2018.04.18 |
proto | 1.0.0 | ps | 1.1.0 | purrr | 0.2.5 |
quantreg | 5.36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.7.0 | R6 | 2.2.2 | randomForest | 4.6-14 |
RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | readr | 1.1.1 |
readxl | 1.1.0 | recipes | 0.1.3 | rematch | 1.0.1 |
reshape2 | 1.4.3 | rio | 0.5.10 | rlang | 0.2.2 |
robustbase | 0.93-2 | RODBC | 1.3-15 | roxygen2 | 6.1.0 |
rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.7-3 |
RSQLite | 2.1.1 | rstudioapi | 0.7 | scales | 1.0.0 |
sfsmisc | 1.1-2 | sp | 1.3-1 | SparkR | 2.4.0 |
SparseM | 1.77 | spatial | 7.3-11 | splines | 3.4.4 |
sqldf | 0.4-11 | SQUAREM | 2017.10-1 | statmod | 1.4.30 |
stats | 3.4.4 | stats4 | 3.4.4 | stringi | 1.2.4 |
stringr | 1.3.1 | survival | 2.42-6 | tcltk | 3.4.4 |
TeachingDemos | 2,10 | testthat | 2.0.0 | tibble | 1.4.2 |
tidyr | 0.8.1 | tidyselect | 0.2.4 | timeDate | 3043.102 |
tools | 3.4.4 | utf8 | 1.1.4 | utils | 3.4.4 |
viridisLite | 0.3.0 | whisker | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | zip | 1.0.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.11-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | Datenstrom | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db7-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0,3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,10 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | Sammlung | 0.7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4,7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.10.0 |
org.apache.arrow | arrow-memory | 0.10.0 |
org.apache.arrow | arrow-vector | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | orc-shims | 1.5.2 |
org.apache.parquet | parquet-column | 1.10.1-databricks2 |
org.apache.parquet | parquet-common | 1.10.1-databricks2 |
org.apache.parquet | parquet-encoding | 1.10.1-databricks2 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks2 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-shaded | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.9 |
org.codehaus.janino | janino | 3.0.9 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |