Runtime 1.2
Die Microsoft Fabric Runtime ist eine in Azure integrierte Plattform, die auf Apache Spark basiert und die Ausführung und Verwaltung von Data Engineering- und Data Science-Umgebungen ermöglicht. Dieses Dokument behandelt die Runtime 1.2-Komponenten und -Versionen.
Microsoft Fabric Runtime 1.2 ist die neueste Runtime-Version mit allgemeiner Verfügbarkeit. Zu den Hauptkomponenten von Runtime 1.2 gehören:
- Apache Spark 3.4.1
- Betriebssystem: Mariner 2.0
- Java: 11
- Scala: 2.12.17
- Python: 3.10
- Delta Lake: 2.4.0
- R: 4.2.2
Microsoft Fabric Runtime 1.2 enthält eine Sammlung von Paketen auf Standardebene, einschließlich einer vollständigen Anaconda-Installation und häufig verwendeter Bibliotheken für Java/Scala, Python und R. Diese Bibliotheken werden automatisch einbezogen, wenn Notebooks oder Aufträge auf der Microsoft Fabric-Plattform verwendet werden. Eine vollständige Liste der Bibliotheken finden Sie in der Dokumentation. Microsoft Fabric veröffentlicht regelmäßig Wartungsupdates für Runtime 1.2, die Fehlerbehebungen, Leistungsverbesserungen und Sicherheitspatches bieten. Immer auf dem neuesten Stand zu bleiben, sorgt für optimale Leistung und Zuverlässigkeit für Ihre Datenverarbeitungsaufgaben.
Neue Features und Verbesserungen von Spark-Release 3.4.1
Apache Spark 3.4.0 ist das fünfte Release in der 3.x-Linie. Dieses Release, getragen von der Open-Source-Community, hat über 2.600 Jira-Tickets aufgelöst. Es führt einen Python-Client für Spark Connect ein, verbessert strukturiertes Streaming mit asynchroner Statusverfolgung und Python-Zustandsverarbeitung. Es erweitert die Pandas-API-Abdeckung mit NumPy-Eingabeunterstützung, vereinfacht die Migration von herkömmlichen Data Warehouses über ANSI-Compliance und neue integrierte Funktionen. Außerdem verbessert es die Produktivität der Entwicklung und die Debugbarkeit mit Speicherprofilerstellung. Darüber hinaus basiert Runtime 1.2 auf Apache Spark 3.4.1, einer Wartungsversion, die sich auf Stabilitätsfixes konzentriert.
Wichtigste Highlights
- Unterstützung für DEFAULT-Werte für Spalten in Tabellen implementieren (SPARK-38334)
- Unterstützung von ZEITSTEMPEL OHNE ZEITZONEN-Datentyp (SPARK-35662)
- Unterstützung von „Lateral Column Alias References“ (SPARK-27561)
- Härten der Verwendung von SQLSTATE für Fehlerklassen (SPARK-41994)
- Standardmäßige Aktivierung von Bloom-Filterjoins (SPARK-38841)
- Bessere Skalierbarkeit der Spark-Benutzeroberfläche und Treiberstabilität für große Anwendungen(SPARK-41053)
- Asynchrone Fortschrittsverfolgung in strukturiertem Streaming (SPARK-39591)
- Beliebige zustandsbehaftete Verarbeitung im strukturierten Streaming mit Python (SPARK-40434)
- Verbesserungen der Pandas-API-Abdeckung (SPARK-42882) und NumPy-Eingabeunterstützung in PySpark (SPARK-39405)
- Bereitstellen eines Speicherprofilers für benutzerdefinierte PySpark-Funktionen (SPARK-40281)
- Implementieren des PyTorch-Verteilers (SPARK-41589)
- Veröffentlichen von SBOM (Software Bill of Materials)--Artefakten (SPARK-41893)
- Unterstützung für DEFAULT-Werte für Spalten in Tabellen implementieren (SPARK-38334)
- Unterstützung von parametrisierter SQL (SPARK-41271, SPARK-42702)
- Unterstützung für DEFAULT-Werte für Spalten in Tabellen implementieren (SPARK-38334)
- Hinzufügen von Dataset.as(StructType) (SPARK-39625)
- Unterstützung von parametrisierter SQL (SPARK-41271, SPARK-42702)
- Hinzufügen von Entpivot/Melt (SPARK-38864, SPARK-39876)
- Unterstützung von „Lateral Column Alias References“ (SPARK-27561)
- Unterstützung der Ergebnis-Offset-Klausel (SPARK-28330, SPARK-39159)
- Unterstützung von Zeitstempel ohne Zeitzonendatentyp (SPARK-35662)
- Unterstützung von skalare Unterabfragen in der Zeitreise (SPARK-39306)
- Kompatibilität der Katalog-API mit dem 3-Layer-Namespace (SPARK-39235)
- Unterstützung von timestamp in Sekunden für TimeTravel mit Dataframe-Optionen (SPARK-39633)
- Hinzufügen von SparkSession.config(Map) (SPARK-40163)
- Ändern der Standarddatenbank für den Sitzungskatalogs wird unterstützt (SPARK-35242)
- Protobuf-Unterstützung für Spark – from_protobuf AND to_protobuf (SPARK-40654)
- Hinzufügen der WHEN NOT MATCHED BY SOURCE-Klausel zu MERGE INTO (SPARK-40921)
- Aufheben der Einschränkung für die Reihenfolge für CREATE TABLE-Spaltenoptionen (SPARK-40944)
- SQL-Äquivalent für Befehl zum Überschreiben des Dataframe (SPARK-40956)
- Unterstützung von Generieren ohne erforderliche Ausgabe von untergeordneten Elementen zum Hosten äußerer Verweise (SPARK-41441)
- ORDER BY ALL (SPARK-41637)
- GROUP BY ALL (SPARK-41635)
- Hinzufügen von flatMapSortedGroups und cogroupSorted (SPARK-38591)
- Unterstützung von Unterabfragen mit korrelierten Ungleichheitsprädikaten (SPARK-36114)
- Unterstützung von Unterabfragen mit Korrelation über UNION/INTERSECT/EXCEPT (SPARK-36124)
- Behebung von: OOM-Fehler kann nicht gemeldet werden, wenn AQE (Adaptive Query Execution, adaptive Abfrageausführung) auf (SPARK-42290)
- Behebung von: Kürzungslogik hat ASCII-Steuerzeichen nicht ordnungsgemäß behandelt (SPARK-44383)
- Der äußere Join von Dataframe.joinWith sollte einen NULL-Wert für nicht übereinstimmende Zeilen zurückgeben (SPARK-37829)
- Verwenden der Hilfsprogramme, um den Schalter für die im lokalen Prüfpunkt verwendete dynamische Zuordnung abzurufen (SPARK-42421)
- Hinzufügen von CapturedException zu utils (SPARK-42078)
- Unterstützen von SELECT DEFAULT mit ORDER BY, LIMIT, OFFSET für INSERT-Quellbeziehung (SPARK-43071)
- Python-Client für Spark Connect (SPARK-39375)
Lesen Sie die Vollversion der Versionshinweise für eine bestimmte Apache Spark-Version, indem Sie sowohl Spark 3.4.0 als auch Spark 3.4.1 besuchen.
Neue benutzerdefinierte Abfrageoptimierungen
Unterstützung für gleichzeitige Schreibvorgänge in Spark
Das Auftreten eines 404-Fehlers mit der Meldung „Vorgang fehlgeschlagen: Der angegebene Pfad ist nicht vorhanden“ ist ein häufiges Problem beim Ausführen paralleler Dateneinfügungen in dieselbe Tabelle mithilfe einer SQL INSERT INTO-Abfrage. Dieser Fehler kann zu Datenverlust führen. Unser neues Feature, der Dateiausgabe-Committeralgorithmus, behebt dieses Problem, sodass Kunden eine nahtlose parallele Dateneinfügung durchführen können.
Um auf dieses Feature zuzugreifen, aktivieren Sie das spark.sql.enable.concurrentWrites
-Feature-Flag, das standardmäßig ab Runtime 1.2 (Spark 3.4) aktiviert ist. Obwohl dieses Feature auch in anderen Spark 3-Versionen verfügbar ist, ist es standardmäßig nicht aktiviert. Dieses Feature unterstützt keine parallele Ausführung von INSERT OVERWRITE-Abfragen, bei denen jeder gleichzeitige Auftrag Daten auf verschiedenen Partitionen derselben Tabelle dynamisch überschreibt. Zu diesem Zweck bietet Spark ein alternatives Feature, das durch Konfigurieren der spark.sql.sources.partitionOverwriteMode
-Einstellung auf dynamisch aktiviert werden kann.
Intelligente Lesevorgänge, mit denen Dateien von fehlgeschlagenen Aufträgen übersprungen werden
Wenn ein Auftrag zum Einfügen in eine Tabelle fehlschlägt, aber einige Aufgaben erfolgreich sind, koexistieren die von den erfolgreichen Aufgaben generierten Dateien im aktuellen Spark-Committer-System mit Dateien aus dem fehlgeschlagenen Auftrag. Diese Koexistenz kann Verwirrung für Benutzer verursachen, da es schwierig wird, zwischen Dateien zu unterscheiden, die zu erfolgreichen und erfolglosen Aufträgen gehören. Wenn ein Auftrag aus einer Tabelle liest, während ein anderer Daten gleichzeitig in dieselbe Tabelle einfügt, greift der Leseauftrag möglicherweise auf nicht committete Daten zu. Wenn ein Schreibauftrag fehlschlägt, kann der Leseauftrag falsche Daten verarbeiten.
Das spark.sql.auto.cleanup.enabled
-Flag steuert unser neues Feature, das dieses Problem behebt. Wenn diese Option aktiviert ist, überspringt Spark automatisch das Lesen von Dateien, die beim Ausführen von spark.read
oder Auswählen von Abfragen aus einer Tabelle nicht committet wurden. Dateien, die vor dem Aktivieren dieses Features geschrieben wurden, werden weiterhin wie gewohnt gelesen.
Hier sind die sichtbaren Änderungen:
- Alle Dateien enthalten nun einen
tid-{jobID}
-Bezeichner in ihren Dateinamen. - Anstelle des
_success
-Markers, der in der Regel am Ausgabespeicherort nach erfolgreichem Auftragsabschluss erstellt wurde, wird ein neuer_committed_{jobID}
-Marker generiert. Dieser Marker ordnet erfolgreiche Auftrags-IDs bestimmten Dateinamen zu. - Wir haben einen neuen SQL-Befehl eingeführt, den Benutzer regelmäßig ausführen können, um Speicher zu verwalten und nicht committete Dateien zu bereinigen. Die Syntax für diesen Befehl lautet wie folgt:
- So bereinigen Sie ein bestimmtes Verzeichnis:
CLEANUP ('/path/to/dir') [RETAIN number HOURS];
- Zum Bereinigen einer bestimmten Tabelle:
CLEANUP [db_name.]table_name [RETAIN number HOURS];
In dieser Syntax stelltpath/to/dir
den Speicherort-URI dar, bei dem die Bereinigung erforderlich ist, undnumber
ist ein doppelter Typwert, der den Aufbewahrungszeitraum darstellt. Der Standardaufbewahrungszeitraum beträgt 7 Tage.
- So bereinigen Sie ein bestimmtes Verzeichnis:
- Wir haben eine neue Konfigurationsoption namens
spark.sql.deleteUncommittedFilesWhileListing
eingeführt, die standardmäßig auffalse
eingestellt ist. Wenn Sie diese Option aktivieren, wird die automatische Löschung von nicht committeten Dateien während Lesevorgängen durchgeführt. In diesem Szenario werden Lesevorgänge jedoch möglicherweise verlangsamt. Es wird empfohlen, den Bereinigungsbefehl manuell auszuführen, wenn der Cluster im Leerlauf ist, anstatt dieses Flag zu aktivieren.
Migrationsleitfaden von Runtime 1.1 zu Runtime 1.2
Überprüfen Sie bei der Migration von Runtime 1.1, unterstützt von Apache Spark 3.3, zu Runtime 1.2, unterstützt von Apache Spark 3.4, den offiziellen Migrationsleitfaden. Hier sind die wichtigsten Highlights:
Core
- Seit Spark 3.4 besitzt der Spark-Treiber
PersistentVolumnClaim
s und versucht, sie wiederzuverwenden, wenn sie nicht Live-Ausführern zugewiesen sind. Um das Verhalten vor Spark 3.4 wiederherzustellen, können Siespark.kubernetes.driver.ownPersistentVolumeClaim
auffalse
undspark.kubernetes.driver.reusePersistentVolumeClaim
auffalse
festlegen. - Seit Spark 3.4 verfolgt Spark-Treiber Shuffle-Daten, wenn die dynamische Zuordnung ohne Shuffle-Dienst aktiviert ist. Um das Verhalten vor Spark 3.4 wiederherzustellen, können Sie
spark.dynamicAllocation.shuffleTracking.enabled
auffalse
festlegen. - Seit Spark 3.4 versucht Spark, zwischengespeicherte RDD (Resilient Distributed Dataset, resilientes verteiltes Dataset) und Shuffle-Blöcke außer Betrieb zu setzen, wenn sowohl
spark.decommission.enabled
als auchspark.storage.decommission.enabled
true sind. Um das Verhalten vor Spark 3.4 wiederherzustellen, können Sie sowohlspark.storage.decommission.rddBlocks.enabled
als auchspark.storage.decommission.shuffleBlocks.enabled
auffalse
festlegen. - Seit Spark 3.4 verwendet Spark RocksDB-Speicher, wenn
spark.history.store.hybridStore.enabled
true ist. Um das Verhalten vor Spark 3.4 wiederherzustellen, können Siespark.history.store.hybridStore.diskBackend
aufLEVELDB
festlegen.
PySpark
- In Spark 3.4 wird das Schema einer Arrayspalte abgeleitet, indem die Schemas aller Elemente im Array zusammengeführt werden. Um das vorherige Verhalten wiederherzustellen, bei dem das Schema nur vom ersten Element abgeleitet ist, können Sie
spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled
auftrue
festlegen. - Wenn in Spark 3.4 bei Verwendung der Pandas auf Spark-API
Groupby.apply
der Rückgabetyp desfunc
-Parameters nicht angegeben undcompute.shortcut_limit
auf 0 festgelegt ist, wird die Anzahl der Samplingzeilen automatisch auf 2 festgelegt. Durch diese Anpassung wird sichergestellt, dass immer mindestens zwei Samplingzeilen vorhanden sind, um eine genaue Schemaableitung aufrechtzuerhalten. - Wenn in Spark 3.4 die Pandas auf Spark-API
Index.insert
außerhalb des gültigen Bereichs liegt, löst sie IndexError mitindex {} is out of bounds for axis 0 with size {}
aus, um dem Verhalten von Pandas 1.4 zu folgen. - In Spark 3.4 wird der Serienname in der Pandas auf Spark-API
Series.mode
beibehalten, um dem Verhalten von Pandas 1.4 zu entsprechen. - In Spark 3.4 überprüft die Pandas auf Spark-API
Index.__setitem__
zuerst, ob dervalue
TypColumn
ist, um das Auslösen von unerwartetemValueError
inis_list_like
zu vermeiden, wie z. B. „Spalte kann nicht in bool konvertiert werden: Verwenden Sie „&“ für „und“, „|“ für „oder“, „~“ für „nicht“, wenn Sie boolesche Ausdrücke für DataFrame erstellen. - In Spark 3.4 aktualisiert die Pandas auf Spark-API
astype('category')
auchcategories.dtype
entsprechend den ursprünglichen Datendtype
, um dem Verhalten von Pandas 1.4 zu folgen. - In Spark 3.4 unterstützt die Pandas auf Spark-API die Gruppe durch Positionsindizierung in
GroupBy.head
undGroupBy.tail
, um Pandas 1.4 zu folgen. Negative Argumente funktionieren jetzt ordnungsgemäß und führen zu Bereichen relativ zum Ende und Anfang jeder Gruppe. Zuvor haben negative Argumente leere Frames zurückgegeben. - In Spark 3.4 wird der Schemaableitungsprozess von
groupby.apply
in Pandas auf Spark zunächst den Pandas-Typ ableiten, um die Genauigkeit der Pandasdtype
so weit wie möglich sicherzustellen. - In Spark 3.4 wird der
Series.concat
-Sortierparameter beachtet, um Pandas 1.4-Verhalten zu folgen. - In Spark 3.4 erstellt der
DataFrame.__setitem__
eine Kopie und ersetzt vorhandene Arrays, die NICHT überschreiben werden, um dem Verhalten von Pandas 1.4 zu folgen. - In Spark 3.4 haben der
SparkSession.sql
und die Pandas auf Spark-APIsql
den neuen Parameterargs
erhalten, der die Bindung benannter Parameter an ihre SQL-Literale bereitstellt. - In Spark 3.4 folgt Pandas API auf Spark für die Pandas 2.0, und einige APIs wurden in Spark 3.4 gemäß den Änderungen in Pandas 2.0 eingestellt oder entfernt. Weitere Informationen finden Sie in den [Versionshinweisen von Pandas](https://pandas.pydata.org/docs/dev/whatsnew/).
SQL, Datasets und DataFrame
- Seit Spark 3.4 fügen INSERT INTO-Befehle mit expliziter Spaltenliste mit weniger Spalten als die Zieltabelle automatisch die entsprechenden Standardwerte für die verbleibenden Spalten hinzu (oder NULL für jede Spalte ohne explizit zugewiesenen Standardwert). In Spark 3.3 oder früheren Versionen schlugen diese Befehle fehl, und es wurden Fehler zurückgegeben, die meldeten, dass die Anzahl der bereitgestellten Spalten nicht mit der Anzahl der Spalten in der Zieltabelle übereinstimmt. Durch deaktivieren von
spark.sql.defaultColumn.useNullsForMissingDefaultValues
wird das vorherige Verhalten wiederhergestellt. - Seit Spark 3.4 wird Number oder Number(*) von Teradata als Decimal(38,18) behandelt. In Spark 3.3 oder früher wird Number oder Number(*) aus Teradata als Decimal(38, 0) behandelt. In diesem Fall wird der Bruchteil entfernt.
- Seit Spark 3.4 enthält v1-Datenbank, Tabelle, permanente Ansicht und Funktions-ID „spark_catalog“ als Katalogname, wenn die Datenbank definiert ist, z. B. ist ein Tabellenbezeichner:
spark_catalog.default.t
. Um das Legacyverhalten wiederherzustellen, setzen Siespark.sql.legacy.v1IdentifierNoCatalog
auftrue
. - Seit Spark 3.4 gibt Spark SQL, wenn ANSI SQL mode(configuration
spark.sql.ansi.enabled
) aktiviert ist, immer NULL-Ergebnisse zurück, wenn ein Kartenwert mit einem nicht vorhandenen Schlüssel abgerufen wird. In Spark 3.3 oder früheren Versionen ist ein Fehler aufgetreten. - Seit Spark 3.4 druckt die SQL CLI
spark-sql
das PräfixError in query:
nicht vor der Fehlermeldung vonAnalysisException
. - Seit Spark 3.4 ignoriert die
split
-Funktion nachfolgende leere Zeichenfolgen, wenn derregex
-Parameter leer ist. - Seit Spark 3.4 löst die
to_binary
-Funktion einen Fehler für eine falsch formatiertestr
-Eingabe aus. Verwenden Sietry_to_binary
, um fehlerhafte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.- Gültige
Base64
-Zeichenfolgen sollten Symbole aus dembase64
-Alphabet (A-Za-z0-9+/), optionalen Abstand (=
) und optionale Leerzeichen enthalten. Leerzeichen werden in der Konvertierung übersprungen, es sei denn, es stehen Abstandssymbole vor ihnen. Wenn der Abstand vorhanden ist, sollte sie die Zeichenfolge abschließen und die in RFC 4648 § 4 beschriebenen Regeln befolgen. - Gültige Hexadezimalzeichenfolgen sollten nur zulässige Symbole enthalten (0-9A-Fa-f).
- Gültige Werte für
fmt
sindhex
,base64
,utf-8
undutf8
, wobei die Groß-/Kleinschreibung nicht beachtet wird.
- Gültige
- Seit Spark 3.4 löst Spark nur
PartitionsAlreadyExistException
aus, wenn es Partitionen erstellt, aber einige davon bereits vorhanden sind. In Spark 3.3 oder früher kann Spark entwederPartitionsAlreadyExistException
oderPartitionAlreadyExistsException
auslösen. - Seit Spark 3.4 überprüft Spark die Partitionsspezifikationen in ALTER PARTITION, um das Verhalten von
spark.sql.storeAssignmentPolicy
zu befolgen, was zu einer Ausnahme führen kann, wenn die Typkonvertierung fehlschlägt, z. B.ALTER TABLE .. ADD PARTITION(p='a')
wenn Spaltep
vom int-Typ ist. Um das Legacyverhalten wiederherzustellen, setzen Siespark.sql.legacy.skipTypeValidationOnAlterPartition
auftrue
. - Seit Spark 3.4 sind vektorisierte Leser standardmäßig für die geschachtelten Datentypen (Array, Zuordnung und Struktur) aktiviert. Um das Legacyverhalten wiederherzustellen, setzen Sie
spark.sql.orc.enableNestedColumnVectorizedReader
undspark.sql.parquet.enableNestedColumnVectorizedReader
auffalse
. - Seit Spark 3.4 wird
BinaryType
in der CSV-Datenquelle nicht unterstützt. In Spark 3.3 oder früheren Versionen können Benutzer binäre Spalten in der CSV-Datenquelle schreiben, aber der Ausgabeinhalt in CSV-Dateien istObject.toString()
, was bedeutungslos ist. Wenn Benutzer unterdessen CSV-Tabellen mit Binärspalten lesen, löst Spark eineUnsupported type: binary
-Ausnahme aus. - Seit Spark 3.4 sind Bloom-Filter-Joins standardmäßig aktiviert. Um das Legacyverhalten wiederherzustellen, legen Sie
spark.sql.optimizer.runtime.bloomFilter.enabled
auffalse
fest.
Strukturiertes Streaming
- Seit Spark 3.4 ist
Trigger.Once
veraltet, und Benutzer werden ermutigt, vonTrigger.Once
zuTrigger.AvailableNow
zu migrieren. Weitere Informationen finden Sie unter SPARK-39805. - Seit Spark 3.4 wird der Standardwert der Konfiguration für das Abrufen des Kafka-Versatzes (
spark.sql.streaming.kafka.useDeprecatedOffsetFetching
) vontrue
infalse
geändert. Der Standardwert basiert nicht mehr auf einer Consumergruppen-basierten Planung, was sich auf die erforderliche ACL auswirkt. Weitere Informationen finden Sie unter Kafka-Integration für strukturiertes Streaming.
Neue Features und Verbesserungen von Delta Lake 2.4
Delta Lake ist ein Open-Source-Projekt zum Erstellen einer Lakehouse-Architektur auf der Grundlage von Data Lakes. Delta Lake ermöglicht ACID-Transaktionen, die skalierbare Metadatenverarbeitung sowie die Vereinheitlichung der Streaming- und Batchdatenverarbeitung auf der Grundlage vorhandener Data Lakes.
Delta Lake bietet insbesondere Folgendes:
- ACID-Transaktionen in Spark: Serialisierbare Isolationsstufen stellen sicher, dass Reader niemals inkonsistente Daten vorfinden.
- Skalierbare Metadatenverarbeitung: Die verteilte Verarbeitungsleistung von Spark wird genutzt, um alle Metadaten für Tabellen im Petabytebereich, die Milliarden von Dateien enthalten, problemlos zu verarbeiten.
- Streaming- und Batch-Vereinheitlichung: Eine Tabelle in Delta Lake ist eine Batchtabelle und eine Streamingquelle und -senke. Die Erfassung von Streamingdaten, der Abgleich älterer Batches und interaktive Abfragen sind standardmäßig möglich.
- Schemaerzwingung: Schemavariationen werden automatisch verarbeitet, um das Einfügen fehlerhafter Datensätze während der Erfassung zu verhindern.
- Zeitreise: Die Datenversionierung ermöglicht Rollbacks, vollständige Verlaufsüberwachungspfade und reproduzierbare Machine-Learning-Experimente.
- Upsert- und Löschvorgänge: Zusammenführungs-, Aktualisierungs- und Löschvorgänge werden unterstützt, um komplexe Anwendungsfälle wie CDC-Vorgänge (Change Data Capture), SCD-Vorgänge (Slowly-Changing Dimension), Streamingupserts und mehr zu ermöglichen.
Dies sind die wichtigsten Features in dieser Version
- Unterstützung für Apache Spark 3.4.
- Unterstützt das Schreiben von Löschvektoren für den
DELETE
-Befehl. Beim Löschen von Zeilen aus einer Delta-Tabelle wurden zuvor alle Dateien mit mindestens einer übereinstimmenden Zeile umgeschrieben. Mit Löschvektoren können diese kostspieligen Umschreibungen vermieden werden. Weitere Informationen finden Sie unter Was sind Löschvektoren? - Unterstützung für alle Schreibvorgänge für Tabellen mit aktivierten Löschvektoren.
- Unterstützung
PURGE
zum Entfernen von Löschvektoren aus der aktuellen Version einer Delta-Tabelle durch Umschreiben von Datendateien mit Löschvektoren. Weitere Details finden Sie in der -Dokumentation. - Unterstützung des Lesens des Änderungsdatenfeeds für Tabellen mit aktivierten Löschvektoren.
- Unterstützung
REPLACE WHERE
von Ausdrücken in SQL, um Daten selektiv zu überschreiben. Zuvor wurden „replaceWhere“-Optionen nur in den DataFrameWriter-APIs unterstützt. - Unterstützung
WHEN NOT MATCHED BY SOURCE
von Klauseln in SQL für den Befehl „Zusammenführen“. - Unterstützung des Weglassens generierter Spalten aus der Spaltenliste für SQL
INSERT INTO
-Abfragen. Delta generiert automatisch die Werte für alle nicht angegebenen generierten Spalten. - Unterstützung des
TimestampNTZ
-Datentyps, der in Spark 3.3 hinzugefügt wurde. Für die Nutzung vonTimestampNTZ
ist ein Delta-Protokollupgrade erforderlich. Weitere Informationen finden Sie in der Dokumentation . - Zulassen des Änderns des Spaltentyps einer
char
- odervarchar
-Spalte in einen kompatiblen Typ imALTER TABLE
-Befehl. Das neue Verhalten ist das gleiche wie bei Apache Spark und ermöglicht das Upcasting vonchar
odervarchar
zuvarchar
oderstring
. - Block, der
overwriteSchema
mit dynamischer Partitionsüberschreibung verwendet. In diesem Szenario kann die Tabelle beschädigt werden, da nicht alle Daten entfernt werden können, und das Schema der neu geschriebenen Partitionen kann nicht mit dem Schema der unveränderten Partitionen übereinstimmen. - Geben einen leeren
DataFrame
für Änderungsdatenfeed-Auslesungen zurück, wenn innerhalb des angegebenen Zeitstempelbereichs keine Commits vorhanden sind. Zuvor wurde ein Fehler ausgelöst. - Behebung eines Fehlers im Änderungsdatenfeed für Datensätze, die während der mehrdeutigen Stunde erstellt wurden, wenn die Sommerzeit in Kraft tritt.
- Behebung eines Fehlers, bei dem das Abfragen einer externen Delta-Tabelle am Stamm eines S3-Buckets einen Fehler auslöste.
- Entfernen von offengelegten internen Spark-Metadaten aus dem Delta-Protokoll, um alle betroffenen Tabellen wieder lesbar zu machen.
Lesen Sie die Vollversion der Versionshinweise für Delta Lake 2.4.
Pakete auf Standardebene für Java/Scala-Bibliotheken
In der folgenden Tabelle werden alle Pakete auf Standardebene für Java/Scala und deren jeweilige Versionen aufgeführt.
GroupId | ArtifactId | Version |
---|---|---|
com.aliyun | aliyun-java-sdk-core | 4.5.10 |
com.aliyun | aliyun-java-sdk-kms | 2.11.0 |
com.aliyun | aliyun-java-sdk-ram | 3.1.0 |
com.aliyun | aliyun-sdk-oss | 3.13.0 |
com.amazonaws | aws-java-sdk-bundle | 1.12.262 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml.jackson | jackson-annotations | 2.14.2 |
com.fasterxml.jackson | jackson-core | 2.14.2 |
com.fasterxml.jackson | jackson-core-asl | 1.9.13 |
com.fasterxml.jackson | jackson-databind | 2.14.2 |
com.fasterxml.jackson | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson | jackson-mapper-asl | 1.9.13 |
com.fasterxml.jackson | jackson-module-scala_2.12 | 2.14.2 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.vowpalwabbit | vw-jni | 9.3.0 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.cloud.bigdataoss | gcs-connector | hadoop3-2.2.11 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 14.0.1 |
com.google.protobuf | protobuf-java | 2.5.0 |
com.googlecode.json-simple | json-simple | 1.1.1 |
com.jcraft | jsch | 0.1.54 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.linkedin.isolation-forest | isolation-forest_3.2.0_2.12 | 2.0.8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.azure | azure-eventhubs | 3.3.0 |
com.microsoft.azure | azure-eventhubs-spark_2.12 | 2.3.22 |
com.microsoft.azure | azure-keyvault-core | 1.0.0 |
com.microsoft.azure | azure-storage | 7.0.1 |
com.microsoft.azure | cosmos-analytics-spark-3.4.1-connector_2.12 | 1.8.10 |
com.microsoft.azure | qpid-proton-j-extensions | 1.2.4 |
com.microsoft.azure | synapseml_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-cognitive_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-core_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-deep-learning_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-internal_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-lightgbm_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-opencv_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-vw_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure.kusto | kusto-data | 3.2.1 |
com.microsoft.azure.kusto | kusto-ingest | 3.2.1 |
com.microsoft.azure.kusto | kusto-spark_3.0_2.12 | 3.1.16 |
com.microsoft.azure.kusto | spark-kusto-synapse-connector_3.1_2.12 | 1.3.3 |
com.microsoft.cognitiveservices.speech | client-jar-sdk | 1.14.0 |
com.microsoft.sqlserver | msslq-jdbc | 8.4.1.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.typesafe | config | 1.3.4 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 2.5.1 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4.jar |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-core_2.12 | 2.4.0 |
io.delta | delta-storage | 2.4.0 |
io.dropwizard.metrics | metrics-core | 4.2.15 |
io.dropwizard.metrics | metrics-graphite | 4.2.15 |
io.dropwizard.metrics | metrics-jmx | 4.2.15 |
io.dropwizard.metrics | metrics-json | 4.2.15 |
io.dropwizard.metrics | metrics-jvm | 4.2.15 |
io.github.resilience4j | resilience4j-core | 1.7.1 |
io.github.resilience4j | resilience4j-retry | 1.7.1 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-http-4 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.opentracing | opentracing-api | 0.33.0 |
io.opentracing | opentracing-noop | 0.33.0 |
io.opentracing | opentracing-util | 0.33.0 |
io.spray | spray-json_2.12 | 1.3.5 |
io.vavr | vavr | 0.10.4 |
io.vavr | vavr-match | 0.10.4 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.inject | jakarta.inject | 2.6.1 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation-api | 2.0.2 | |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
jakarta.xml.bind | jakarta.xml.bind-api | 2.3.2 |
javax.activation | activation | 1.1.1 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.2 |
mysql | mysql-connector-java | 8.0.18 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.py4j | py4j | 0.10.9.7 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.22 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-pool2 | 2.11.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-aliyun | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-annotations | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-aws | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure-datalake | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-api | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-cloud-storage | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-openstack | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-shaded-guava | 1.1.1 |
org.apache.hadoop | hadoop-yarn-server-web-proxy | 3.3.4.5.3-105251583 |
org.apache.hive | hive-common | 2.3.9 |
org.apache.hive | hive-exec | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-metastore | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims-0.23 | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-shims-common | 2.3.9 |
org.apache.hive | hive-shims-scheduler | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.httpcomponents | httpmime | 4.5.14 |
org.apache.httpcomponents.client5 | httpclient5 | 5.1.3 |
org.apache.iceberg | delta-iceberg | 2.4.0.6 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.kafka | kafka-clients | 3.3.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.19.0 |
org.apache.orc | orc-core | 1.8.4 |
org.apache.orc | orc-mapreduce | 1.8.4 |
org.apache.orc | orc-shims | 1.8.4 |
org.apache.parquet | parquet-column | 1.12.3 |
org.apache.parquet | parquet-common | 1.12.3 |
org.apache.parquet | parquet-encoding | 1.12.3 |
org.apache.parquet | parquet-format-structures | 1.12.3 |
org.apache.parquet | parquet-hadoop | 1.12.3 |
org.apache.parquet | parquet-jackson | 1.12.3 |
org.apache.qpid | proton-j | 0.33.8 |
org.apache.spark | spark-avro_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-catalyst_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-core_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-graphx_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hadoop-cloud_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hive_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-kvstore_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-launcher_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib-local_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-common_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-shuffle_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-repl_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sketch_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming-kafka-0-10-assembly_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-tags_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-token-provider-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-unsafe_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-yarn_2.12 | 3.4.1.5.3-105251583 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,22 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.3.5.3-105251583 |
org.apache.zookeeper | zookeeper-jute | 3.6.3.5.3-105251583 |
org.apiguardian | apiguardian-api | 1.1.0 |
org.codehaus.janino | commons-compiler | 3.1.9 |
org.codehaus.janino | janino | 3.1.9 |
org.codehaus.jettison | jettison | 1.1 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleusjavax.jdo | 3.2.0-m3 | |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.25.0-GA |
org.javatuples | javatuples | 1.2 |
org.jdom | jdom2 | 2.0.6 |
org.jetbrains | annotations | 17.0.0 |
org.jodd | jodd-core | 3.5.2 |
org.json | json | 20210307 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.junit.jupiter | junit-jupiter | 5.5.2 |
org.junit.jupiter | junit-jupiter-api | 5.5.2 |
org.junit.jupiter | junit-jupiter-engine | 5.5.2 |
org.junit.jupiter | junit-jupiter-params | 5.5.2 |
org.junit.platform | junit-platform-commons | 1.5.2 |
org.junit.platform | junit-platform-engine | 1.5.2 |
org.lz4 | lz4-java | 1.8.0 |
org.objenesis | objenesis | 3.2 |
org.openpnp | opencv | 3.2.0-1 |
org.opentest4j | opentest4j | 1.2.0 |
org.postgresql | postgresql | 42.2.9 |
org.roaringbitmap | RoaringBitmap | 0.9.38 |
org.roaringbitmap | shims | 0.9.38 |
org.rocksdb | rocksdbjni | 7.9.2 |
org.scala-lang | scala-compiler | 2.12.17 |
org.scala-lang | scala-library | 2.12.17 |
org.scala-lang | scala-reflect | 2.12.17 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.7.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 2.1.1 |
org.scala-lang.modules | scala-xml_2.12 | 2.1.0 |
org.scalactic | scalactic_2.12 | 3.2.14 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire_2.12 | 0.17.0 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial.snappy | snappy-java | 1.1.10.1 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
stax | stax-api | 1.0.1 |
Pakete auf Standardebene für Python-Bibliotheken
In der folgenden Tabelle werden alle Pakete auf Standardebene für Python und deren jeweilige Versionen aufgeführt.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
_libgcc_mutex | 0.1 | jupyter_client | 8.5.0 | pycosat | 0.6.6 |
_openmp_mutex | 4,5 | jupyter_core | 5.4.0 | pycparser | 2.21 |
_py-xgboost-mutex | 2.0 | jupyter_events | 0.8.0 | pydantic | 1.10.9 |
absl-py | 2.0.0 | jupyter_server | 2.7.3 | pygments | 2.16.1 |
adal | 1.2.7 | jupyter_server_terminals | 0.4.4 | pyjwt | 2.8.0 |
adlfs | 2023.4.0 | jupyterlab_pygments | 0.2.2 | pynacl | 1.5.0 |
aiohttp | 3.8.6 | jupyterlab_widgets | 3.0.9 | pyodbc | 4.0.39 |
aiosignal | 1.3.1 | keras | 2.12.0 | pyopenssl | 23.2.0 |
alembic | 1.12.0 | keras-preprocessing | 1.1.2 | pyparsing | 3.0.9 |
alsa-lib | 1.2.10 | keyutils | 1.6.1 | pyperclip | 1.8.2 |
ansi2html | 1.8.0 | kiwisolver | 1.4.5 | pypika | 0.48.9 |
anyio | 3.7.1 | krb5 | 1.21.2 | pyqt | 5.15.9 |
appdirs | 1.4.4 | lame | 3.100 | pyqt5-sip | 12.12.2 |
argon2-cffi | 23.1.0 | lcms2 | 2.15 | pysocks | 1.7.1 |
argon2-cffi-bindings | 21.2.0 | ld_impl_linux-64 | 2.40 | Python | 3.10.12 |
Pfeil | 1.3.0 | lerc | 4.0.0 | Python-dateutil | 2.8.2 |
asttokens | 2.4.0 | liac-arff | 2.5.0 | python-fastjsonschema | 2.18.1 |
astunparse | 1.6.3 | libabseil | 20230125.3 | python-flatbuffers | 23.5.26 |
async-timeout | 4.0.3 | libaec | 1.1.2 | python-graphviz | 0.20.1 |
atk-1.0 | 2.38.0 | libarrow | 12.0.1 | python-json-logger | 2.0.7 |
attr | 2.5.1 | libbrotlicommon | 1.0.9 | python-tzdata | 2023.3 |
attrs | 23.1.0 | libbrotlidec | 1.0.9 | python-xxhash | 3.4.1 |
autopage | 0.5.2 | libbrotlienc | 1.0.9 | python_abi | 3.10 |
aws-c-auth | 0.7.3 | libcap | 2.69 | pythonnet | 3.0.1 |
aws-c-cal | 0.6.1 | libclang | 15.0.7 | pytorch | 2.0.1 |
aws-c-common | 0.9.0 | libclang13 | 15.0.7 | pytorch-mutex | 1.0 |
aws-c-compression | 0.2.17 | libcrc32c | 1.1.2 | pytz | 2023.3.post1 |
aws-c-event-stream | 0.3.1 | libcups | 2.3.3 | pyu2f | 0.1.5 |
aws-c-http | 0.7.11 | libcurl | 8.4.0 | pywin32-on-windows | 0.1.0 |
aws-c-io | 0.13.32 | libdeflate | 1.19 | pyyaml | 6.0.1 |
aws-c-mqtt | 0.9.3 | libebm | 0.4.3 | pyzmq | 25.1.1 |
aws-c-s3 | 0.3.14 | libedit | 3.1.20191231 | qt-main | 5.15.8 |
aws-c-sdkutils | 0.1.12 | libev | 4.33 | rdma-core | 28,9 |
aws-checksums | 0.1.17 | libevent | 2.1.12 | re2 | 2023.03.02 |
aws-crt-cpp | 0.21.0 | libexpat | 2.5.0 | readline | 8,2 |
aws-sdk-cpp | 1.10.57 | libffi | 3.4.2 | referencing | 0.30.2 |
azure-core | 1.29.4 | libflac | 1.4.3 | regex | 2023.8.8 |
azure-datalake-store | 0.0.51 | libgcc-ng | 13.2.0 | requests | 2.31.0 |
azure-identity | 1.14.1 | libgcrypt | 1.10.1 | requests-oauthlib | 1.3.1 |
azure-storage-blob | 12.18.3 | libgd | 2.3.3 | retrying | 1.3.3 |
azure-storage-file-datalake | 12.12.0 | libgfortran-ng | 13.2.0 | rfc3339-validator | 0.1.4 |
backcall | 0.2.0 | libgfortran5 | 13.2.0 | rfc3986-validator | 0.1.1 |
backoff | 1.11.1 | libglib | 2.78.0 | rich | 13.6.0 |
backports | 1.0 | libgoogle-cloud | 2.12.0 | rpds-py | 0.10.6 |
backports.functools_lru_cache | 1.6.5 | libgpg-error | 1,47 | rsa | 4,9 |
bcrypt | 4.0.1 | libgrpc | 1.54.3 | ruamel.yaml | 0.17.32 |
beautifulsoup4 | 4.12.2 | libhwloc | 2.9.3 | ruamel.yaml.clib | 0.2.7 |
blas | 1.0 | libiconv | 1.17 | ruamel_yaml | 0.15.80 |
bleach | 6.1.0 | libjpeg-turbo | 2.1.5.1 | s2n | 1.3.49 |
blinker | 1.6.3 | libllvm14 | 14.0.6 | sacremoses | 0.0.53 |
Brotli | 1.0.9 | libllvm15 | 15.0.7 | salib | 1.4.7 |
brotli-bin | 1.0.9 | libnghttp2 | 1.52.0 | scikit-learn | 1.3.0 |
brotli-python | 1.0.9 | libnsl | 2.0.1 | scipy | 1.10.1 |
BZIP2 | 1.0.8 | libnuma | 2.0.16 | seaborn | 0.12.2 |
c-ares | 1.20.1 | libogg | 1.3.4 | seaborn-base | 0.12.2 |
ca-certificates | 2023.7.22 | libopus | 1.3.1 | send2trash | 1.8.2 |
cached-property=1.5.2 | 1.5.2 | libpng | 1.6.39 | sentence-transformers | 2.0.0 |
cached_property | 1.5.2 | libpq | 15.4 | sentry-sdk | 1.32.0 |
cachetools | 5.3.2 | libprotobuf | 3.21.12 | seqeval | 1.2.2 |
cairo | 1.18.0 | libpulsar | 3.2.0 | setproctitle | 1.3.3 |
catboost | 1.1.1 | librsvg | 2.56.3 | setuptools | 68.2.2 |
certifi | 2023.7.22 | libsndfile | 1.2.2 | shap | 0.42.1 |
cffi | 1.16.0 | libsodium | 1.0.18 | shellingham | 1.5.4 |
charset-normalizer | 3.3.1 | libsqlite | 3.43.2 | sip | 6.7.12 |
chroma-hnswlib | 0.7.3 | libssh2 | 1.11.0 | sechs | 1.16.0 |
chromadb | 0.4.13 | libstdcxx-ng | 13.2.0 | slicer | 0.0.7 |
Klicken | 8.1.7 | libsystemd0 | 254 | smmap | 5.0.0 |
cliff | 4.2.0 | libthrift | 0.18.1 | snappy | 1.1.10 |
cloudpickle | 2.2.1 | libtiff | 4.6.0 | sniffio | 1.3.0 |
clr_loader | 0.2.6 | libtool | 2.4.7 | soupsieve | 2.5 |
cmaes | 0.10.0 | libutf8proc | 2.8.0 | sqlalchemy | 2.0.22 |
cmd2 | 2.4.3 | libuuid | 2.38.1 | sqlparse | 0.4.4 |
colorama | 0.4.6 | libuv | 1.46.0 | stack_data | 0.6.2 |
coloredlogs | 15.0.1 | libvorbis | 1.3.7 | starlette | 0.27.0 |
colorlog | 6.7.0 | libwebp | 1.3.2 | statsmodels | 0.14.0 |
comm | 0.1.4 | libwebp-base | 1.3.2 | stevedore | 5.1.0 |
conda-package-handling | 2.2.0 | libxcb | 1.15 | sympy | 1.12 |
conda-package-streaming | 0.9.0 | libxgboost | 1.7.6 | tabulate | 0.9.0 |
configparser | 5.3.0 | libxkbcommon | 1.6.0 | tbb | 2021.10.0 |
contourpy | 1.1.1 | libxml2 | 2.11.5 | tenacity | 8.2.3 |
Kryptografie | 41.0.5 | libxslt | 1.1.37 | tensorboard | 2.12.3 |
cycler | 0.12.1 | libzlib | 1.2.13 | tensorboard-data-server | 0.7.0 |
cython | 3.0.4 | lightgbm | 4.0.0 | tensorflow | 2.12.1 |
Gedankenstrich | 2.14.0 | lime | 0.2.0.1 | tensorflow-base | 2.12.1 |
dash-core-components | 2.0.0 | llvm-openmp | 17.0.3 | tensorflow-estimator | 2.12.1 |
dash-html-components | 2.0.0 | llvmlite | 0.40.1 | termcolor | 2.3.0 |
dash-table | 5.0.0 | lxml | 4.9.3 | terminado | 0.17.1 |
dash_cytoscape | 0.2.0 | lz4-c | 1.9.4 | threadpoolctl | 3.2.0 |
databricks-cli | 0.18.0 | mako | 1.2.4 | tiktoken | 0.5.1 |
dataclasses | 0.8 | markdown | 3.4.4 | tinycss2 | 1.2.1 |
datasets | 2.14.6 | markdown-it-py | 3.0.0 | tk | 8.6.13 |
dbus | 1.13.6 | markupsafe | 2.1.3 | tokenizers | 0.13.3 |
debugpy | 1.8.0 | matplotlib | 3.7.2 | toml | 0.10.2 |
decorator | 5.1.1 | matplotlib-base | 3.7.2 | tomli | 2.0.1 |
defusedxml | 0.7.1 | matplotlib-inline | 0.1.6 | toolz | 0.12.0 |
dill | 0.3.7 | mdurl | 0.1.0 | tornado | 6.3.3 |
diskcache | 5.6.3 | mistune | 3.0.1 | tqdm | 4.66.1 |
distlib | 0.3.7 | mkl | 2021.4.0 | traitlets | 5.12.0 |
docker-py | 6.1.3 | mkl-service | 2.4.0 | transformers | 4.26.0 |
docker-pycreds | 0.4.0 | mkl_fft | 1.3.1 | treeinterpreter | 0.2.2 |
entrypoints | 0,4 | mkl_random | 1.2.2 | typed-ast | 1.5.5 |
et_xmlfile | 1.1.0 | ml_dtypes | 0.3.1 | typer | 0.9.0 |
exceptiongroup | 1.1.3 | mlflow-skinny | 2.6.0 | types-python-dateutil | 2.8.19.14 |
wird ausgeführt | 1.2.0 | monotonic | 1.5 | types-pytz | 2023.3.1.1 |
expat | 2.5.0 | mpc | 1.3.1 | typing_extensions | 4.5.0 |
fastapi | 0.103.2 | mpfr | 4.2.1 | typing_utils | 0.1.0 |
flaml | 2.1.1dev2 | mpg123 | 1.32.3 | tzdata | 2023c |
flask | 3.0.0 | mpmath | 1.3.0 | ucx | 1.14.1 |
flatbuffers | 23.5.26 | msal | 1.24.1 | unicodedata2 | 15.1.0 |
font-ttf-dejavu-sans-mono | 2,37 | msal_extensions | 1.0.0 | unixodbc | 2.3.12 |
font-ttf-inconsolata | 3.000 | multidict | 6.0.4 | uri-template | 1.3.0 |
font-ttf-source-code-pro | 2.038 | multiprocess | 0.70.15 | urllib3 | 1.26.17 |
font-ttf-ubuntu | 0,83 | munkres | 1.1.4 | uvicorn | 0.23.2 |
fontconfig | 2.14.2 | mysql-common | 8.0.33 | virtualenv | 20.23.1 |
fonts-conda-ecosystem | 1 | mysql-libs | 8.0.33 | wandb | 0.15.12 |
fonts-conda-forge | 1 | nbclient | 0.8.0 | wcwidth | 0.2.8 |
fonttools | 4.43.1 | nbconvert-core | 7.9.2 | webcolors | 1.13 |
fqdn | 1.5.1 | nbformat | 5.9.2 | webencodings | 0.5.1 |
freetype | 2.12.1 | ncurses | 6.4 | websocket-client | 1.6.4 |
fribidi | 1.0.10 | nest-asyncio | 1.5.8 | werkzeug | 3.0.1 |
frozenlist | 1.4.0 | networkx | 3.2 | wheel | 0.41.2 |
fsspec | 2023.10.0 | nltk | 3.8.1 | widgetsnbextension | 4.0.9 |
gast | 0.4.0 | nspr | 4.35 | wrapt | 1.15.0 |
gdk-pixbuf | 2.42.10 | nss | 3,94 | xcb-util | 0.4.0 |
geographiclib | 1.52 | numba | 0.57.1 | xcb-util-image | 0.4.0 |
geopy | 2.3.0 | numpy | 1.24.3 | xcb-util-keysyms | 0.4.0 |
gettext | 0.21.1 | numpy-base | 1.24.3 | xcb-util-renderutil | 0.3.9 |
gevent | 23.9.0.post1 | oauthlib | 3.2.2 | xcb-util-wm | 0.4.1 |
gflags | 2.2.2 | onnxruntime | 1.16.1 | xgboost | 1.7.6 |
giflib | 5.2.1 | openai | 0.27.8 | xkeyboard-config | 2.40 |
gitdb | 4.0.11 | openjpeg | 2.5.0 | xorg-kbproto | 1.0.7 |
gitpython | 3.1.40 | openpyxl | 3.1.2 | xorg-libice | 1.1.1 |
glib | 2.78.0 | openssl | 3.1.4 | xorg-libsm | 1.2.4 |
glib-tools | 2.78.0 | opt-einsum | 3.3.0 | xorg-libx11 | 1.8.7 |
glog | 0.6.0 | opt_einsum | 3.3.0 | xorg-libxau | 1.0.11 |
gmp | 6.2.1 | optuna | 2.8.0 | xorg-libxdmcp | 1.1.3 |
gmpy2 | 2.1.2 | orc | 1.9.0 | xorg-libxext | 1.3.4 |
google-auth | 2.23.3 | overrides | 7.4.0 | xorg-libxrender | 0.9.11 |
google-auth-oauthlib | 1.0.0 | Packen | 23,2 | xorg-renderproto | 0.11.1 |
google-pasta | 0.2.0 | Pandas | 2.0.3 | xorg-xextproto | 7.3.0 |
graphite2 | 1.3.13 | pandas-stubs | 2.1.1.230928 | xorg-xf86vidmodeproto | 2.3.1 |
graphviz | 8.1.0 | pandasql | 0.7.3 | xorg-xproto | 7.0.31 |
greenlet | 3.0.1 | pandocfilters | 1.5.0 | xxhash | 0.8.2 |
grpcio | 1.54.3 | pango | 1.50.14 | xz | 5.2.6 |
gst-plugins-base | 1.22.6 | paramiko | 3.3.1 | yaml | 0.2.5 |
gstreamer | 1.22.6 | parso | 0.8.3 | yarl | 1.9.2 |
gtk2 | 2.24.33 | pathos | 0.3.1 | zeromq | 4.3.5 |
gts | 0.7.6 | pathtools | 0.1.2 | zipp | 3.17.0 |
h11 | 0.14.0 | patsy | 0.5.3 | zlib | 1.2.13 |
h5py | 3.10.0 | pbr | 5.11.1 | zope.event | 5.0 |
harfbuzz | 8.2.1 | pcre2 | 10.40 | zope.interface | 6.1 |
hdf5 | 1.14.2 | pexpect | 4.8.0 | zstandard | 0.21.0 |
Feiertage | 0,35 | pickleshare | 0.7.5 | zstd | 1.5.5 |
html5lib | 1.1 | pillow | 10.0.1 | astor | 0.8.1 |
huggingface_hub | 0.18.0 | pip | 23.1.2 | contextlib2 | 21.6.0 |
humanfriendly | 10,0 | pixman | 0.42.2 | filelock | 3.11.0 |
icu | 73.2 | pkgutil-resolve-name | 1.3.10 | fluent-logger | 0.10.0 |
idna | 3.4 | platformdirs | 3.5.1 | gson | 0.0.3 |
imageio | 2.31.1 | plotly | 5.16.1 | jaraco-context | 4.3.0 |
importlib-metadata | 6.8.0 | ply | 3,11 | joblibspark | 0.5.2 |
importlib-resources | 6.1.0 | pooch | 1.8.0 | json-tricks | 3.17.3 |
importlib_metadata | 6.8.0 | portalocker | 2.8.2 | jupyter-ui-poll | 0.2.2 |
importlib_resources | 6.1.0 | posthog | 3.0.2 | more-itertools | 10.1.0 |
intel-openmp | 2021.4.0 | pox | 0.3.3 | msgpack | 1.0.7 |
Interpretieren | 0.4.3 | ppft | 1.7.6.7 | mypy | 1.4.1 |
interpret-core | 0.4.3 | prettytable | 3.8.0 | mypy-extensions | 1.0.0 |
ipykernel | 6.26.0 | prometheus_client | 0.17.1 | nni | 2.10.1 |
ipython | 8.14.0 | prompt-toolkit | 3.0.39 | powerbiclient | 3.1.1 |
ipywidgets | 8.0.7 | prompt_toolkit | 3.0.39 | pyspark | 3.4.1.5.3.20230713 |
isodate | 0.6.1 | protobuf | 4.21.12 | pythonwebhdfs | 0.2.3 |
isoduration | 20.11.0 | psutil | 5.9.5 | Antworten | 0.23.3 |
itsdangerous | 2.1.2 | pthread-stubs | 0,4 | rouge-score | 0.1.2 |
jax | 0.4.17 | ptyprocess | 0.7.0 | schema | 0.7.5 |
jaxlib | 0.4.14 | pulsar-client | 3.3.0 | simplejson | 3.19.2 |
jedi | 0.19.1 | pulseaudio-client | 16.1 | synapseml-mlflow | 1.0.22.post2 |
jinja2 | 3.1.2 | pure_eval | 0.2.2 | synapseml-utils | 1.0.18.post1 |
joblib | 1.3.2 | py-xgboost | 1.7.6 | typeguard | 2.13.3 |
jsonpointer | 2.4 | py4j | 0.10.9.7 | types-pyyaml | 6.0.12.12 |
jsonschema | 4.19.1 | pyarrow | 12.0.1 | typing-extensions | 4.8.0 |
jsonschema-specifications | 2023.7.1 | pyasn1 | 0.5.0 | websockets | 12.0 |
jsonschema-with-format-nongpl | 4.19.1 | pyasn1-modules | 0.3.0 | wolframalpha | 5.0.0 |
xmltodict | 0.13.0 |
Standardpakete für R
In der folgenden Tabelle werden alle Pakete auf Standardebene für R und deren jeweilige Versionen aufgeführt.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
_libgcc_mutex | 0.1 | r-caret | 6.0_94 | r-praise | 1.0.0 |
_openmp_mutex | 4,5 | r-cellranger | 1.1.0 | r-prettyunits | 1.2.0 |
_r-mutex | 1.0.1 | r-class | 7.3_22 | r-proc | 1.18.4 |
_r-xgboost-mutex | 2.0 | r-cli | 3.6.1 | r-processx | 3.8.2 |
aws-c-auth | 0.7.0 | r-clipr | 0.8.0 | r-prodlim | 2023.08.28 |
aws-c-cal | 0.6.0 | r-clock | 0.7.0 | r-profvis | 0.3.8 |
aws-c-common | 0.8.23 | r-codetools | 0.2_19 | r-progress | 1.2.2 |
aws-c-compression | 0.2.17 | r-collections | 0.3.7 | r-progressr | 0.14.0 |
aws-c-event-stream | 0.3.1 | r-colorspace | 2.1_0 | r-promises | 1.2.1 |
aws-c-http | 0.7.10 | r-commonmark | 1.9.0 | r-proxy | 0.4_27 |
aws-c-io | 0.13.27 | r-config | 0.3.2 | r-pryr | 0.1.6 |
aws-c-mqtt | 0.8.13 | r-conflicted | 1.2.0 | r-ps | 1.7.5 |
aws-c-s3 | 0.3.12 | r-coro | 1.0.3 | r-purrr | 1.0.2 |
aws-c-sdkutils | 0.1.11 | r-cpp11 | 0.4.6 | r-quantmod | 0.4.25 |
aws-checksums | 0.1.16 | r-crayon | 1.5.2 | r-r2d3 | 0.2.6 |
aws-crt-cpp | 0.20.2 | r-credentials | 2.0.1 | r-r6 | 2.5.1 |
aws-sdk-cpp | 1.10.57 | r-crosstalk | 1.2.0 | r-r6p | 0.3.0 |
binutils_impl_linux-64 | 2.40 | r-crul | 1.4.0 | r-ragg | 1.2.6 |
bwidget | 1.9.14 | r-curl | 5.1.0 | r-rappdirs | 0.3.3 |
BZIP2 | 1.0.8 | r-data.table | 1.14.8 | r-rbokeh | 0.5.2 |
c-ares | 1.20.1 | r-dbi | 1.1.3 | r-rcmdcheck | 1.4.0 |
ca-certificates | 2023.7.22 | r-dbplyr | 2.3.4 | r-rcolorbrewer | 1.1_3 |
cairo | 1.18.0 | r-desc | 1.4.2 | r-rcpp | 1.0.11 |
cmake | 3.27.6 | r-devtools | 2.4.5 | r-reactable | 0.4.4 |
curl | 8.4.0 | r-diagram | 1.6.5 | r-reactr | 0.5.0 |
expat | 2.5.0 | r-dials | 1.2.0 | r-readr | 2.1.4 |
font-ttf-dejavu-sans-mono | 2,37 | r-dicedesign | 1.9 | r-readxl | 1.4.3 |
font-ttf-inconsolata | 3.000 | r-diffobj | 0.3.5 | r-recipes | 1.0.8 |
font-ttf-source-code-pro | 2.038 | r-digest | 0.6.33 | r-rematch | 2.0.0 |
font-ttf-ubuntu | 0,83 | r-downlit | 0.4.3 | r-rematch2 | 2.1.2 |
fontconfig | 2.14.2 | r-dplyr | 1.1.3 | r-remotes | 2.4.2.1 |
fonts-conda-ecosystem | 1 | r-dtplyr | 1.3.1 | r-reprex | 2.0.2 |
fonts-conda-forge | 1 | r-e1071 | 1.7_13 | r-reshape2 | 1.4.4 |
freetype | 2.12.1 | r-ellipsis | 0.3.2 | r-rjson | 0.2.21 |
fribidi | 1.0.10 | r-evaluate | 0,23 | r-rlang | 1.1.1 |
gcc_impl_linux-64 | 13.2.0 | r-fansi | 1.0.5 | r-rlist | 0.4.6.2 |
gettext | 0.21.1 | r-farver | 2.1.1 | r-rmarkdown | 2.22 |
gflags | 2.2.2 | r-fastmap | 1.1.1 | r-rodbc | 1.3_20 |
gfortran_impl_linux-64 | 13.2.0 | r-fontawesome | 0.5.2 | r-roxygen2 | 7.2.3 |
glog | 0.6.0 | r-forcats | 1.0.0 | r-rpart | 4.1.21 |
glpk | 5.0 | r-foreach | 1.5.2 | r-rprojroot | 2.0.3 |
gmp | 6.2.1 | r-forge | 0.2.0 | r-rsample | 1.2.0 |
graphite2 | 1.3.13 | r-fs | 1.6.3 | r-rstudioapi | 0.15.0 |
gsl | 2.7 | r-furrr | 0.3.1 | r-rversions | 2.1.2 |
gxx_impl_linux-64 | 13.2.0 | r-future | 1.33.0 | r-rvest | 1.0.3 |
harfbuzz | 8.2.1 | r-future.apply | 1.11.0 | r-sass | 0.4.7 |
icu | 73.2 | r-gargle | 1.5.2 | r-scales | 1.2.1 |
kernel-headers_linux-64 | 2.6.32 | r-generics | 0.1.3 | r-selectr | 0.4_2 |
keyutils | 1.6.1 | r-gert | 2.0.0 | r-sessioninfo | 1.2.2 |
krb5 | 1.21.2 | r-ggplot2 | 3.4.2 | r-shape | 1.4.6 |
ld_impl_linux-64 | 2.40 | r-gh | 1.4.0 | r-shiny | 1.7.5.1 |
lerc | 4.0.0 | r-gistr | 0.9.0 | r-slider | 0.3.1 |
libabseil | 20230125.3 | r-gitcreds | 0.1.2 | r-sourcetools | 0.1.7_1 |
libarrow | 12.0.0 | r-globals | 0.16.2 | r-sparklyr | 1.8.2 |
libblas | 3.9.0 | r-glue | 1.6.2 | r-squarem | 2021.1 |
libbrotlicommon | 1.0.9 | r-googledrive | 2.1.1 | r-stringi | 1.7.12 |
libbrotlidec | 1.0.9 | r-googlesheets4 | 1.1.1 | r-stringr | 1.5.0 |
libbrotlienc | 1.0.9 | r-gower | 1.0.1 | r-survival | 3.5_7 |
libcblas | 3.9.0 | r-gpfit | 1.0_8 | r-sys | 3.4.2 |
libcrc32c | 1.1.2 | r-gt | 0.9.0 | r-systemfonts | 1.0.5 |
libcurl | 8.4.0 | r-gtable | 0.3.4 | r-testthat | 3.2.0 |
libdeflate | 1.19 | r-gtsummary | 1.7.2 | r-textshaping | 0.3.7 |
libedit | 3.1.20191231 | r-hardhat | 1.3.0 | r-tibble | 3.2.1 |
libev | 4.33 | r-haven | 2.5.3 | r-tidymodels | 1.1.0 |
libevent | 2.1.12 | r-hexbin | 1.28.3 | r-tidyr | 1.3.0 |
libexpat | 2.5.0 | r-highcharter | 0.9.4 | r-tidyselect | 1.2.0 |
libffi | 3.4.2 | r-highr | 0,10 | r-tidyverse | 2.0.0 |
libgcc-devel_linux-64 | 13.2.0 | r-hms | 1.1.3 | r-timechange | 0.2.0 |
libgcc-ng | 13.2.0 | r-htmltools | 0.5.6.1 | r-timedate | 4022.108 |
libgfortran-ng | 13.2.0 | r-htmlwidgets | 1.6.2 | r-tinytex | 0,48 |
libgfortran5 | 13.2.0 | r-httpcode | 0.3.0 | r-torch | 0.11.0 |
libgit2 | 1.7.1 | r-httpuv | 1.6.12 | r-triebeard | 0.4.1 |
libglib | 2.78.0 | r-httr | 1.4.7 | r-ttr | 0.24.3 |
libgomp | 13.2.0 | r-httr2 | 0.2.3 | r-tune | 1.1.2 |
libgoogle-cloud | 2.12.0 | r-ids | 1.0.1 | r-tzdb | 0.4.0 |
libgrpc | 1.55.1 | r-igraph | 1.5.1 | r-urlchecker | 1.0.1 |
libiconv | 1.17 | r-infer | 1.0.5 | r-urltools | 1.7.3 |
libjpeg-turbo | 3.0.0 | r-ini | 0.3.1 | r-usethis | 2.2.2 |
liblapack | 3.9.0 | r-ipred | 0.9_14 | r-utf8 | 1.2.4 |
libnghttp2 | 1.55.1 | r-isoband | 0.2.7 | r-uuid | 1.1_1 |
libnuma | 2.0.16 | r-iterators | 1.0.14 | r-v8 | 4.4.0 |
libopenblas | 0.3.24 | r-jose | 1.2.0 | r-vctrs | 0.6.4 |
libpng | 1.6.39 | r-jquerylib | 0.1.4 | r-viridislite | 0.4.2 |
libprotobuf | 4.23.2 | r-jsonlite | 1.8.7 | r-vroom | 1.6.4 |
libsanitizer | 13.2.0 | r-juicyjuice | 0.1.0 | r-waldo | 0.5.1 |
libssh2 | 1.11.0 | r-kernsmooth | 2.23_22 | r-warp | 0.2.0 |
libstdcxx-devel_linux-64 | 13.2.0 | r-knitr | 1,45 | r-whisker | 0.4.1 |
libstdcxx-ng | 13.2.0 | r-labeling | 0.4.3 | r-withr | 2.5.2 |
libthrift | 0.18.1 | r-labelled | 2.12.0 | r-workflows | 1.1.3 |
libtiff | 4.6.0 | r-later | 1.3.1 | r-workflowsets | 1.0.1 |
libutf8proc | 2.8.0 | r-lattice | 0.22_5 | r-xfun | 0,41 |
libuuid | 2.38.1 | r-lava | 1.7.2.1 | r-xgboost | 1.7.4 |
libuv | 1.46.0 | r-lazyeval | 0.2.2 | r-xml | 3.99_0.14 |
libv8 | 8.9.83 | r-lhs | 1.1.6 | r-xml2 | 1.3.5 |
libwebp-base | 1.3.2 | r-lifecycle | 1.0.3 | r-xopen | 1.0.0 |
libxcb | 1.15 | r-lightgbm | 3.3.5 | r-xtable | 1.8_4 |
libxgboost | 1.7.4 | r-listenv | 0.9.0 | r-xts | 0.13.1 |
libxml2 | 2.11.5 | r-lobstr | 1.1.2 | r-yaml | 2.3.7 |
libzlib | 1.2.13 | r-lubridate | 1.9.3 | r-yardstick | 1.2.0 |
lz4-c | 1.9.4 | r-magrittr | 2.0.3 | r-zip | 2.3.0 |
make | 4.3 | r-maps | 3.4.1 | r-zoo | 1.8_12 |
ncurses | 6.4 | r-markdown | 1.11 | rdma-core | 28,9 |
openssl | 3.1.4 | r-mass | 7.3_60 | re2 | 2023.03.02 |
orc | 1.8.4 | r-matrix | 1.6_1.1 | readline | 8,2 |
pandoc | 2.19.2 | r-memoise | 2.0.1 | rhash | 1.4.4 |
pango | 1.50.14 | r-mgcv | 1.9_0 | s2n | 1.3.46 |
pcre2 | 10.40 | r-mime | 0,12 | sed | 4.8 |
pixman | 0.42.2 | r-miniui | 0.1.1.1 | snappy | 1.1.10 |
pthread-stubs | 0,4 | r-modeldata | 1.2.0 | sysroot_linux-64 | 2,12 |
r-arrow | 12.0.0 | r-modelenv | 0.1.1 | tk | 8.6.13 |
r-askpass | 1.2.0 | r-modelmetrics | 1.2.2.2 | tktable | 2,10 |
r-assertthat | 0.2.1 | r-modelr | 0.1.11 | ucx | 1.14.1 |
r-backports | 1.4.1 | r-munsell | 0.5.0 | unixodbc | 2.3.12 |
r-base | 4.2.3 | r-nlme | 3.1_163 | xorg-kbproto | 1.0.7 |
r-base64enc | 0.1_3 | r-nnet | 7.3_19 | xorg-libice | 1.1.1 |
r-bigd | 0.2.0 | r-numderiv | 2016.8_1.1 | xorg-libsm | 1.2.4 |
r-bit | 4.0.5 | r-openssl | 2.1.1 | xorg-libx11 | 1.8.7 |
r-bit64 | 4.0.5 | r-parallelly | 1.36.0 | xorg-libxau | 1.0.11 |
r-bitops | 1.0_7 | r-parsnip | 1.1.1 | xorg-libxdmcp | 1.1.3 |
r-blob | 1.2.4 | r-patchwork | 1.1.3 | xorg-libxext | 1.3.4 |
r-brew | 1.0_8 | r-pillar | 1.9.0 | xorg-libxrender | 0.9.11 |
r-brio | 1.1.3 | r-pkgbuild | 1.4.2 | xorg-libxt | 1.3.0 |
r-broom | 1.0.5 | r-pkgconfig | 2.0.3 | xorg-renderproto | 0.11.1 |
r-broom.helpers | 1.14.0 | r-pkgdown | 2.0.7 | xorg-xextproto | 7.3.0 |
r-bslib | 0.5.1 | r-pkgload | 1.3.3 | xorg-xproto | 7.0.31 |
r-cachem | 1.0.8 | r-plotly | 4.10.2 | xz | 5.2.6 |
r-callr | 3.7.3 | r-plyr | 1.8.9 | zlib | 1.2.13 |
zstd | 1.5.5 |
Zugehöriger Inhalt
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Issues stufenweise als Feedbackmechanismus für Inhalte abbauen und durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unterFeedback senden und anzeigen für