Partager via


Fonctions

S’applique à : coche marquée oui Databricks Runtime

Spark SQL offre deux fonctionnalités pour répondre à un large éventail de besoins : les fonctions intégrées et les fonctions définies par l’utilisateur (UDF).

Pour en savoir plus sur la résolution de fonction et l’appel de fonction, consultez : Appel de fonction.

Fonctions intégrées

Cet article présente les utilisations et les descriptions des catégories de fonctions intégrées fréquemment utilisées pour l’agrégation, les tableaux et les mappages, les dates et les timestamps et les données JSON.

Fonctions SQL et Python définies par l’utilisateur

Les fonctions définies par l’utilisateur (UDF) SQL et Python sont des fonctions que vous pouvez définir vous-même capables de retourner des valeurs scalaires ou des jeux de résultats.

Pour plus d’informations, consultez CREATE FUNCTION (SQL, Python).

Fonctions externes définies par l’utilisateur

Les fonctions définies par l’utilisateur vous permettent de définir vos propres fonctions lorsque les fonctions intégrées du système ne suffisent pas pour effectuer la tâche souhaitée. Pour utiliser les fonctions définies par l’utilisateur, vous devez d’abord définir la fonction, puis l’inscrire auprès de Spark et enfin appeler la fonction inscrite. Les fonctions définies par l’utilisateur peuvent agir sur une seule ligne ou sur plusieurs lignes à la fois. Spark SQL prend également en charge l’intégration d’implémentations Hive existantes de fonctions définies par l’utilisateur, de fonctions d’agrégation définies par l’utilisateur et de fonctions de table définies par l’utilisateur.