Partage via


BULK INSERT (Transact-SQL)

S’applique à : SQL Server Azure SQL Database Azure SQL Managed Instance

Importe un fichier de données dans une table ou vue de base de données dans un format spécifié par l'utilisateur dans SQL Server.

Conventions de la syntaxe Transact-SQL

Syntaxe

BULK INSERT
   { database_name.schema_name.table_or_view_name | schema_name.table_or_view_name | table_or_view_name }
      FROM 'data_file'
     [ WITH
    (
   [ [ , ] DATA_SOURCE = 'data_source_name' ]

   -- text formatting options
   [ [ , ] CODEPAGE = { 'RAW' | 'code_page' | 'ACP' | 'OEM' } ]
   [ [ , ] DATAFILETYPE = { 'char' | 'native' | 'widechar' | 'widenative' } ]
   [ [ , ] ROWTERMINATOR = 'row_terminator' ]
   [ [ , ] FIELDTERMINATOR = 'field_terminator' ]
   [ [ , ] FORMAT = 'CSV' ]
   [ [ , ] FIELDQUOTE = 'quote_characters']

   [ [ , ] FIRSTROW = first_row ]
   [ [ , ] LASTROW = last_row ]

   -- input file format options
   [ [ , ] FORMATFILE = 'format_file_path' ]
   [ [ , ] FORMATFILE_DATA_SOURCE = 'data_source_name' ]

   -- error handling options
   [ [ , ] MAXERRORS = max_errors ]
   [ [ , ] ERRORFILE = 'file_name' ]
   [ [ , ] ERRORFILE_DATA_SOURCE = 'errorfile_data_source_name' ]

   -- database options
   [ [ , ] KEEPIDENTITY ]
   [ [ , ] KEEPNULLS ]
   [ [ , ] FIRE_TRIGGERS ]
   [ [ , ] CHECK_CONSTRAINTS ]
   [ [ , ] TABLOCK ]

   -- source options
   [ [ , ] ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ]
   [ [ , ] ROWS_PER_BATCH = rows_per_batch ]
   [ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch 
   [ [ , ] BATCHSIZE = batch_size ]

    )]

Arguments

database_name

Nom de la base de données qui contient la table ou la vue spécifiée. Si aucun nom n’est spécifié, database_name est la base de données actuelle.

schema_name

Spécifie le nom du schéma de la table ou de la vue. schema_name est facultatif si le schéma par défaut de l’utilisateur réalisant l’opération d’importation en bloc est le schéma de la table ou de la vue spécifiée. Si schema n’est pas spécifié et que le schéma par défaut de l’utilisateur qui effectue l’opération d’importation en bloc diffère de celui de la table ou de la vue spécifiée, SQL Server retourne un message d’erreur et l’opération d’importation en bloc est annulée.

table_name

Spécifie le nom de la table ou de la vue dans laquelle les données doivent être importées en bloc. Seules des vues dans lesquelles toutes les colonnes font référence à la même table de base peuvent être utilisées. Pour plus d’informations sur les restrictions relatives au chargement des données dans les affichages, consultez INSERT (Transact-SQL).

FROM 'data_file'

Spécifié le chemin complet du fichier de données contenant les données à importer dans la table ou la vue spécifiée. BULK INSERT peut importer des données à partir d’un disque ou de Stockage Blob Azure (notamment réseau, disquette, disque dur, etc.).

data_file doit spécifier un chemin valide à partir du serveur où SQL Server s’exécute. Si data_file correspond à un fichier distant, spécifiez le nom UNC (Universal Naming Convention). Un nom UNC présente le format \\SystemName\ShareName\Path\FileName. Par exemple :

BULK INSERT Sales.Orders
FROM '\\SystemX\DiskZ\Sales\data\orders.dat';

À compter de SQL Server 2017 (14.x), le data_file peut se trouver dans le Stockage Blob Azure. Dans ce cas, vous devez spécifier l’option data_source_name. Pour obtenir un exemple, consultez Importer des données à partir d’un fichier dans Stockage Blob Azure.

Azure SQL Database prend uniquement en charge la lecture à partir du Stockage Blob Azure.

BATCHSIZE = batch_size

Indique le nombre de lignes contenues dans un lot. Chaque lot est copié sur le serveur comme une transaction unique. En cas d'échec, SQL Server valide ou annule la transaction pour chaque lot. Par défaut, toutes les données du fichier spécifié constituent un seul lot. Pour plus d’informations sur les performances, consultez les Considérations relatives aux performances dans la suite de cet article.

CHECK_CONSTRAINTS

Spécifie que toutes les contraintes sur la table ou vue cible doivent être vérifiées pendant l'opération d'importation en bloc. Sans l’option CHECK_CONSTRAINTS, toute contrainte CHECK et FOREIGN KEY est ignorée. Après l’opération, la contrainte sur la table est marquée comme non approuvée.

Les contraintes UNIQUE et PRIMARY KEY sont toujours appliquées. Lors de l’importation dans une colonne de caractères définie avec une contrainte NOT NULL, BULK INSERT insère une chaîne vide quand aucune valeur n’est spécifiée dans le fichier texte.

À un certain moment, il devient nécessaire d'examiner les contraintes définies sur l'ensemble de la table. Si la table n’était pas vide avant l’opération d’importation en bloc, le coût de la revalidation de la contrainte peut dépasser celui de l’application des contraintes CHECK aux données incrémentielles.

Il peut notamment convenir de désactiver les contraintes (comportement par défaut) si les données d'entrée contiennent des lignes qui violent des contraintes. Une fois les contraintes CHECK désactivées, vous pouvez importer les données, puis utiliser les instructions Transact-SQL pour supprimer les données non valides.

Notes

L'option MAXERRORS ne s'applique pas à la vérification des contraintes.

CODEPAGE = { 'ACP' | 'OEM' | 'RAW' | 'code_page' }

Indique la page de codes des données dans le fichier. CODEPAGE n’est justifié que si les données contiennent des colonnes de type char, varcharou text dont les valeurs de caractères sont supérieures à 127 ou inférieures à 32. Pour obtenir un exemple, consultez Spécifier une page de codes.

CODEPAGE n’est pas une option prise en charge sur Linux pour SQL Server 2017 (14.x). Avec SQL Server 2019 (15.x), seule l’option « RAW » est autorisée pour CODEPAGE.

Vous devez spécifier un nom de classement pour chaque colonne dans un fichier de format.

Valeur CODEPAGE Description
ACP Les colonnes du type de données char, varchar ou text sont converties de la page de codes ANSI/Microsoft Windows (ISO 1252) à la page de codes SQL Server.
OEM (valeur par défaut) Les colonnes de type de données char, varchar ou text sont converties de la page de codes du système OEM à la page de codes SQL Server.
RAW Aucune conversion d'une page de codes vers une autre n'a lieu. RAW constitue l’option la plus rapide.
code_page Numéro de la page de codes, par exemple 850.

Les versions antérieures à SQL Server 2016 (13.x) ne prennent pas en charge la page de codes 65001 (encodage UTF-8).

DATAFILETYPE = { 'char' | 'native' | 'widechar' | 'widenative' }

Spécifie que BULK INSERT réalise l'opération d'importation en utilisant la valeur définie pour le type de fichier de données.

Valeur DATAFILETYPE Toutes les données représentées dans :
char (par défaut) Format caractères.

Pour plus d’informations, consultez Utiliser le format caractère pour importer ou exporter des données (SQL Server).
native Types de données (base de données) natif. Créer le fichier de données natif en important en bloc les données à partir de SQL Server à l’aide de l’utilitaire bcp.

La valeur native offre de meilleures performances que la valeur char. Il est recommandé d’utiliser le format natif quand vous transférez des données en bloc entre plusieurs instances SQL Server au moyen d’un fichier de données qui ne contient pas de caractères d’un jeu de caractères étendus/codés sur deux octets (DBCS).

Pour plus d’informations, consultez Utiliser le format natif pour importer ou exporter des données (SQL Server).
widechar Caractères Unicode.

Pour plus d’informations, consultez Utiliser le format caractère Unicode pour importer ou exporter des données (SQL Server).
widenative Types de données (base de données) natif, à l’exception des colonnes de type char, varchar et text dans lesquelles les données sont stockées au format Unicode. Créez le fichier de données widenative en important en bloc les données à partir de SQL Server à l’aide de l’utilitaire bcp.

La valeur widenative offre de meilleures performances que la valeur widechar. Si le fichier de données contient des caractères étendus ANSI, sélectionnez widenative.

Pour plus d’informations, consultez Utiliser le format natif Unicode pour importer ou exporter des données (SQL Server).

DATA_SOURCE = 'data_source_name'

S’applique à : SQL Server 2017 (14.x) et Azure SQL Database.

Spécifie une source de données externe nommée pointant vers l’emplacement de Stockage Blob Azure du fichier qui sera importé. La source de données externe doit être créée à l’aide de l’option TYPE = BLOB_STORAGE ajoutée dans SQL Server 2017 (14.x). Pour plus d’informations, consultez CRÉER UNE SOURCE DE DONNÉES EXTERNES. Pour obtenir un exemple, consultez Importer des données à partir d’un fichier dans Stockage Blob Azure.

ERRORFILE = 'error_file_path'

Fichier utilisé pour collecter les lignes comportant des erreurs de mise en forme et ne pouvant pas être converties en un ensemble de lignes OLE DB. Ces lignes sont copiées « en l'état » du fichier de données vers ce fichier d'erreur.

Le fichier d'erreur est créé lors de l'exécution de la commande. Une erreur se produit si le fichier existe déjà. En outre, un fichier de contrôle ayant l’extension .ERROR.txt est créé. Il référence chaque ligne du fichier d’erreur et fournit des diagnostics des erreurs. Dès que les erreurs ont été corrigées, les données peuvent être chargées.

À compter de SQL Server 2017 (14.x), le error_file_path peut se trouver dans le Stockage Blob Azure.

ERRORFILE_DATA_SOURCE = 'errorfile_data_source_name'

S’applique à : SQL Server 2017 (14.x).

Spécifie une source de données externe nommée pointant vers l’emplacement de Stockage Blob Azure du fichier d’erreur contenant les erreurs détectées lors de l’importation. La source de données externe doit être créée à l’aide de l’option TYPE = BLOB_STORAGE ajoutée dans SQL Server 2017 (14.x). Pour plus d’informations, consultez CRÉER UNE SOURCE DE DONNÉES EXTERNES.

FIRSTROW = first_row

Numéro de la première ligne à charger. La valeur par défaut est la première ligne du fichier de données spécifié. FIRSTROW commence à 1.

L’attribut FIRSTROW n’est pas destiné à ignorer les en-têtes de colonnes. Le fait d’ignorer des en-têtes n’est pas pris en charge par l’instruction BULK INSERT. Si vous choisissez d’ignorer des lignes, le Moteur de base de données SQL Server examine uniquement les marques de fin de champ et ne valide pas les données figurant dans les champs des lignes ignorées.

FIRE_TRIGGERS

Spécifie que tous les déclencheurs d'insertion définis sur la table de destination seront exécutés au cours de l'opération d'importation en bloc. Si des déclencheurs sont définis pour les opérations INSERT réalisées sur la table cible, ils sont activés à la fin de chaque lot.

Si FIRE_TRIGGERS n’est pas spécifié, aucun déclencheur d’insertion ne s’exécute.

FORMATFILE_DATA_SOURCE = 'data_source_name'

S’applique à : SQL Server 2017 (14.x).

Spécifie une source de données externe nommée pointant vers l’emplacement de Stockage Blob Azure du fichier de format qui définit le schéma des données importées. La source de données externe doit être créée à l’aide de l’option TYPE = BLOB_STORAGE ajoutée dans SQL Server 2017 (14.x). Pour plus d’informations, consultez CRÉER UNE SOURCE DE DONNÉES EXTERNES.

KEEPIDENTITY

Indique que la ou les valeurs d'identité figurant dans le fichier de données importé doivent être utilisées dans la colonne d'identité. Si KEEPIDENTITY n’est pas spécifié, les valeurs d’identité de cette colonne sont vérifiées mais pas importées, et SQL Server attribue automatiquement des valeurs uniques en fonction de la valeur initiale et d’un incrément spécifié lors de la création de la table. Si le fichier de données ne contient pas de valeurs pour la colonne d’identité de la table ou de la vue, utilisez un fichier de format pour spécifier que la colonne d’identité doit être ignorée lors de l’importation des données. Dans ce cas, SQL Server attribue automatiquement des valeurs uniques à la colonne. Pour plus d’informations, consultez DBCC CHECKIDENT (Transact-SQL).

Pour plus d’informations sur la conservation des valeurs d’identité, consultez Conserver des valeurs d’identité lors de l’importation de données en bloc (SQL Server).

KEEPNULLS

Spécifie que pendant l'importation en bloc les colonnes vides doivent conserver la valeur NULL au lieu d'insérer des valeurs par défaut dans ces colonnes. Pour plus d’informations, consultez Conserver les valeurs NULL ou utiliser les valeurs par défaut lors de l’importation en bloc (SQL Server).

KILOBYTES_PER_BATCH = kilobytes_per_batch

Indique le nombre approximatif de kilo-octets (Ko) de données par lot sous la forme kilobytes_per_batch. Par défaut, KILOBYTES_PER_BATCH est inconnu. Pour plus d’informations sur les performances, consultez les Considérations relatives aux performances dans la suite de cet article.

LASTROW = last_row

Numéro de la dernière ligne à charger. La valeur par défaut est 0, c'est-à-dire la dernière ligne du fichier de données spécifié.

MAXERRORS = max_errors

Nombre maximal d'erreurs de syntaxe tolérées dans les données avant l'annulation de l'importation en bloc. Chaque ligne ne pouvant pas être importée par l’opération d’importation en bloc est ignorée et comptabilisée comme une erreur. Si max_errors n’est pas spécifié, la valeur par défaut est 10.

L’option MAX_ERRORS ne s’applique pas aux vérifications de contraintes ni à la conversion des types de données money et bigint.

ORDER ( { column [ ASC | DESC ] } [ ,... n ] )

Indique l'ordre de tri des données dans le fichier. Les performances de l'importation en bloc sont améliorées si les données importées sont triées en fonction de l'index cluster de la table, le cas échéant. Si le fichier de données est trié dans un ordre différent, c’est-à-dire pas dans l’ordre d’une clé d’index cluster, ou s’il n’existe pas d’index cluster dans la table, la clause ORDER est ignorée. Les noms de colonnes fournis doivent être des noms de colonnes valides dans la table de destination. Par défaut, l'opération d'insertion en bloc considère que le fichier de données n'est pas ordonné. Pour une importation en bloc optimisée, SQL Server valide également le fait que les données importées sont triées.

n est un espace réservé qui indique que plusieurs colonnes peuvent être spécifiées.

ROWS_PER_BATCH = rows_per_batch

Nombre approximatif de lignes de données que compte le fichier de données.

Par défaut, toutes les données du fichier de données sont envoyées au serveur en une seule transaction, et le nombre de lignes du lot est inconnu de l'optimiseur de requête. Si vous spécifiez ROWS_PER_BATCH (valeur > 0), le serveur utilise cette valeur pour optimiser l’importation en bloc. La valeur spécifiée pour ROWS_PER_BATCH devrait correspondre à peu près au nombre réel de lignes. Pour plus d’informations sur les performances, consultez les Considérations relatives aux performances dans la suite de cet article.

TABLOCK

Spécifie qu'un verrou de niveau table est acquis pour la durée de l'opération d'importation en bloc. Une table peut être chargée simultanément par plusieurs clients à condition qu'elle ne comporte pas d'index et que TABLOCK soit spécifié. Par défaut, le comportement du verrouillage est déterminé par l'option table lock on bulk load. En verrouillant la table pendant la durée de l'importation en bloc, vous réduisez la contention de verrouillage et augmentez considérablement, dans certains cas, les performances. Pour plus d’informations sur les performances, consultez les Considérations relatives aux performances dans la suite de cet article.

Le comportement de verrouillage est différent, car il est divisé en interne en plusieurs ensembles de lignes. Chaque thread charge des données exclusivement dans chaque ensemble de lignes en prenant un verrou X sur l’ensemble de lignes, ce qui autorise le chargement de données en parallèle avec des sessions de chargement de données simultanées. L’utilisation de l’option TABLOCK fait en sorte que le thread prenne un verrou X sur la table (contrairement aux verrous BU pour des ensembles de lignes traditionnels), ce qui empêche les autres threads simultanés de charger des données en même temps.

Options de format de fichier d’entrée

FORMAT = 'CSV'

S’applique à : SQL Server 2017 (14.x).

spécifie un fichier de valeurs séparées par des virgules conformément à la norme RFC 4180.

BULK INSERT Sales.Orders
FROM '\\SystemX\DiskZ\Sales\data\orders.csv'
WITH ( FORMAT = 'CSV');

FIELDQUOTE = 'field_quote'

S’applique à : SQL Server 2017 (14.x).

Spécifie un caractère qui sera utilisé comme caractère de guillemet dans le fichier CSV. Si vous ne spécifiez pas cet argument, le caractère guillemet (") servira de caractère guillemet tel que défini dans la norme RFC 4180.

FORMATFILE = 'chemin_fichier_format'

Spécifie le chemin complet au fichier de format. Un fichier de format décrit le fichier de données qui contient les réponses stockées créées à l’aide de l’utilitaire bcp dans la même table ou vue. Le fichier de format doit être utilisé dans les contextes suivants :

  • Le fichier de données contient plus ou moins de colonnes que la table ou la vue.
  • Les colonnes sont ordonnées différemment.
  • Les délimiteurs de colonne sont différents.
  • Le format des données présente d'autres changements. Les fichiers de format sont généralement créés au moyen de l’utilitaire bcp, puis modifiés, au besoin, à l’aide d’un éditeur de texte. Pour plus d’informations, consultez Utilitaire bcp et Créer un fichier de format.

À compter de SQL Server 2017 (14.x) et dans Azure SQL Database, format_file_path peut se trouver dans Stockage Blob Azure.

FIELDTERMINATOR = 'field_terminator'

Spécifie la marque de fin de champ à utiliser pour les fichiers de données de type char et widechar. La marque de fin de champ par défaut est \t (caractère de tabulation). Pour plus d’informations, consultez Spécifier des indicateurs de fin de champ et de fin de ligne (SQL Server).

ROWTERMINATOR = 'row_terminator'

Spécifie le délimiteur de fin de ligne à utiliser pour les fichiers de données de type char et widechar. La marque de fin de champ par défaut est \r\n (caractère de nouvelle ligne). Pour plus d’informations, consultez Spécifier des indicateurs de fin de champ et de fin de ligne (SQL Server).

Compatibilité

BULK INSERT applique une validation et un contrôle stricts des données lues dans un fichier qui sont susceptible d’entraîner l’échec des scripts existants si ces derniers s’exécutent sur des données non valides. Par exemple, BULK INSERT vérifie que :

  • Les représentations en mode natif des types de données float ou real sont valides.
  • les données Unicode comportent un nombre d'octets pair.

Types de données

Conversion du type de données chaîne en décimal

Les conversions de type de données chaîne en décimal utilisées dans BULK INSERT suivent les mêmes règles que la fonction Transact-SQL CONVERT, qui rejette les chaînes représentant des valeurs numériques qui utilisent la notation scientifique. BULK INSERT traite donc ce genre de chaînes comme des valeurs non valides et signale des erreurs de conversion.

Pour contourner ce problème, utilisez un fichier de format permettant d’importer en bloc des données de type float à notation scientifique dans une colonne décimale. Dans le fichier de format, décrivez explicitement la colonne comme étant de type real ou float. Pour plus d’informations sur ces types de données, consultez float et real (Transact-SQL).

Les fichiers de format représentent des données real en tant que type de données SQLFLT4, et des données float en tant que type de données SQLFLT8. Pour plus d’informations sur les fichiers de format non-XML, consultez Spécifier le type de stockage de fichiers à l’aide de bcp (SQL Server).

Exemple d’importation d’une valeur numérique qui utilise la notation scientifique

Cet exemple utilise la table suivante dans la base de données bulktest :

CREATE TABLE dbo.t_float(c1 FLOAT, c2 DECIMAL (5,4));

L'utilisateur veut importer des données en bloc dans la table t_float. Le fichier de données, C:\t_float-c.dat, contient des données float à notation scientifique, par exemple :

8.0000000000000002E-2 8.0000000000000002E-2

Quand vous copiez cet exemple, faites attention aux différents éditeurs et encodages de texte qui enregistrent les caractères de tabulation (\t) comme des espaces. Un caractère de tabulation est attendu plus loin dans cet exemple.

Toutefois, l’instruction BULK INSERT ne peut pas importer ces données directement dans t_float, car sa deuxième colonne, c2, utilise le type de données decimal. Un fichier de format est donc nécessaire, Il doit mapper les données float à notation scientifique au format décimal de la colonne c2.

Le fichier de format suivant utilise le type de données SQLFLT8 pour établir la correspondance entre le deuxième champ de données et la deuxième colonne :

<?xml version="1.0"?>
<BCPFORMAT xmlns="http://schemas.microsoft.com/sqlserver/2004/bulkload/format" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<RECORD>
<FIELD ID="1" xsi:type="CharTerm" TERMINATOR="\t" MAX_LENGTH="30"/>
<FIELD ID="2" xsi:type="CharTerm" TERMINATOR="\r\n" MAX_LENGTH="30"/> </RECORD> <ROW>
<COLUMN SOURCE="1" NAME="c1" xsi:type="SQLFLT8"/>
<COLUMN SOURCE="2" NAME="c2" xsi:type="SQLFLT8"/> </ROW> </BCPFORMAT>

Si vous voulez opter pour ce fichier de format (avec le nom de fichier C:\t_floatformat-c-xml.xml) afin d'importer les données de test dans la table de test, exécutez l'instruction Transact-SQL suivante :

BULK INSERT bulktest.dbo.t_float
FROM 'C:\t_float-c.dat' WITH (FORMATFILE = 'C:\t_floatformat-c-xml.xml');

Important

Azure SQL Database prend uniquement en charge la lecture à partir du Stockage Blob Azure.

Types de données pour l’importation et l’exportation en bloc de documents SQLXML

Pour exporter ou importer en bloc des données SQLXML, utilisez l'un des types de données ci-dessous dans votre fichier de format :

Type de données Résultat
SQLCHAR ou SQLVARCHAR Les données sont envoyées dans la page de codes du client ou dans la page de codes impliquée par le classement. L’effet est le même que si vous définissiez la propriété DATAFILETYPE = 'char' sans spécifier de fichier de format.
SQLNCHAR ou SQLNVARCHAR Les données sont envoyées au format Unicode. Le résultat est le même que si vous définissiez la propriété DATAFILETYPE = 'widechar' sans spécifier de fichier de format.
SQLBINARY ou SQLVARBIN Les données sont envoyées sans être converties.

Remarques

Pour obtenir une comparaison de l’instruction BULK INSERT, de l’instruction INSERT ... SELECT * FROM OPENROWSET(BULK...), et de la commande bcp, consultez Importation et exportation en bloc de données (SQL Server).

Pour plus d’informations sur la préparation des données en vue d’une importation en bloc, consultez Préparer des données en vue d’une exportation ou d’une importation en bloc (SQL Server).

L'instruction BULK INSERT peut être exécutée dans une transaction définie par l'utilisateur pour importer des données dans une table ou une vue. Pour utiliser des correspondances multiples pour l'importation en bloc de données, une transaction peut éventuellement spécifier la clause BATCHSIZE dans l'instruction BULK INSERT. Si une transaction sur plusieurs lots est restaurée, chaque lot que la transaction a envoyé à SQL Server est restaurée.

Interopérabilité

Importer des données à partir d'un fichier CSV

À compter de SQL Server 2017 (14.x), BULK INSERT prend en charge le format CSV, comme Azure SQL Database.

Avant SQL Server 2017 (14.x), les fichiers CSV (valeurs séparées par des virgules) ne sont pas pris en charge par les opérations d’importation en bloc SQL Server. Toutefois, dans certains cas, un fichier CSV peut être utilisé comme fichier de données pour une importation en bloc de données dans SQL Server. Pour plus d’informations sur la configuration requise pour importer des données à partir d’un fichier de données CSV, consultez Préparer des données en vue d’une exportation ou d’une importation en bloc (SQL Server).

Comportement du journal

Pour plus d’informations sur le moment où les opérations d’insertion de ligne effectuées par l’importation en bloc dans SQL Server sont consignées dans le journal des transactions, consultez Prérequis pour une journalisation minimale dans l’importation en bloc. La journalisation minimale n’est pas prise en charge dans Azure SQL Database.

Restrictions

Lorsque vous utilisez un fichier de format avec BULK INSERT, vous pouvez spécifier jusqu'à 1 024 champs. Il s'agit du nombre maximal de colonnes autorisé dans une table. Si vous utilisez un fichier de format avec BULK INSERT et un fichier de données qui contient plus de 1024 champs, BULK INSERT génère l’erreur 4822. L’utilitaire bcp ne présente pas cette limitation. Par conséquent, pour les fichiers de données qui contiennent plus de 1 024 champs, utilisez BULK INSERT sans fichier de format ou utilisez la commande bcp.

Considérations relatives aux performances

Si le nombre de pages à vider dans un lot unique dépasse un seuil interne, une analyse complète du pool de mémoires tampons peut s'effectuer afin d'identifier les pages à vider lors de la validation du lot. Cette analyse complète peut nuire aux performances de l'importation en bloc. Le dépassement du seuil interne se produit lorsqu'un pool de mémoires tampons de grande taille est associé à un sous-système d'E/S lent. Pour éviter tout dépassement de mémoire tampon sur les ordinateurs de grande capacité, n’utilisez pas l’indication TABLOCK (qui supprime les optimisations en bloc) ou utilisez une taille de lot plus petite (qui permet de conserver les optimisations en bloc).

Vous devez tester différentes tailles de lot avec votre charge de données pour trouver la solution la mieux adaptée. N’oubliez pas que la taille du lot a des implications partielles sur la restauration. Si votre processus échoue, avant de réutiliser BULK INSERT, vous devrez peut-être effectuer quelques opérations supplémentaires manuellement pour supprimer une partie des lignes insérées avec succès, avant qu’une défaillance ne se soit produite.

Avec Azure SQL Database, vous pouvez augmenter temporairement le niveau des performances de la base de données ou de l’instance avant l’importation si vous importez un grand volume de données.

Sécurité

Délégation de compte de sécurité (emprunt d’identité)

Si un utilisateur a recours à une connexion SQL Server , le profil de sécurité du compte du processus SQL Server est alors utilisé. Une connexion via l’authentification SQL Server ne peut pas être authentifiée en dehors du Moteur de base de données. Par conséquence, lorsqu'une commande BULK INSERT est initiée par une connexion via l'authentification SQL Server, la connexion aux données s'effectue à l'aide du contexte de sécurité du compte du processus SQL Server (compte utilisé par le service de moteur de base de données SQL Server).

Pour pouvoir lire les données sources, vous devez octroyer au compte utilisé par le moteur de base de données SQL Server l'accès aux données sources. Par opposition, si un utilisateur SQL Server s'est connecté via l'authentification Windows, il peut lire uniquement les fichiers accessibles par le compte d'utilisateur, indépendamment du profil de sécurité du processus SQL Server .

Si vous exécutez l’instruction BULK INSERT à l’aide de sqlcmd ou osql à partir d’un ordinateur, en insérant les données dans SQL Server sur un deuxième ordinateur et en spécifiant un data_file sur un troisième ordinateur sous forme de chemin UNC, vous risquez de recevoir une erreur 4861.

Pour résoudre cette erreur, utilisez l’authentification SQL Server et spécifiez une connexion SQL Server utilisant le profil de sécurité du compte de processus SQL Server, ou configurez Windows de façon à activer la délégation de compte de sécurité. Pour plus d'informations sur l'activation d'un compte d'utilisateur en vue de son approbation pour la délégation, consultez l'aide de Windows.

Pour plus d’informations sur les considérations relatives à l’utilisation de BULK INSERT, consultez Importer des données en bloc à l’aide de BULK INSERT ou OPENROWSET(BULK...) (SQL Server).

Quand vous importez des données du Stockage Blob Azure qui ne sont pas publiques (accès anonyme), créez une connexion DATABASE SCOPED CREDENTIAL basée sur une clé SAS chiffrée avec une MASTER KEY, puis créez une source de base de données externe à utiliser dans votre commande BULK INSERT.

Vous pouvez également créer un DATABASE SCOPED CREDENTIAL basé sur MANAGED IDENTITY pour autoriser les demandes d’accès aux données dans des comptes de stockage non publics. Quand MANAGED IDENTITY est utilisé, le Stockage Azure doit accorder des autorisations à l’identité managée de l’instance en ajoutant le rôle de contrôle d’accès en fonction du rôle (RBAC) Azure intégré Contributeur aux données Blob du stockage. Ce rôle fournit un accès en lecture/écriture à l’identité managée sur les conteneurs Stockage Blob Azure nécessaires. Les instances Azure SQL Managed Instance ont une identité managée affectée par le système, et peuvent également avoir une ou plusieurs identités managées affectées par l’utilisateur. Vous pouvez utiliser aussi bien des identités managées affectées par le système que des identités managées affectées par l’utilisateur pour autoriser les demandes. Pour l’autorisation, l’identité default de l’instance managée est utilisée (c’est-à-dire l’identité managée affectée par l’utilisateur principal ou l’identité managée affectée par le système si l’identité managée affectée par l’utilisateur n’est pas spécifiée). Pour obtenir un exemple, consultez Importer des données à partir d’un fichier dans Stockage Blob Azure.

Important

L’identité managée s’applique uniquement à Azure SQL. SQL Server ne prend pas en charge l’identité managée.

Autorisations

Requiert les autorisations INSERT et ADMINISTER BULK OPERATIONS. Dans Azure SQL Database, les opérations INSERT et ADMINISTER DATABASE BULK OPERATIONS sont nécessaires. Les autorisations ADMINISTER BULK OPERATIONS et le rôle bulkadmin ne sont pas pris en charge pour SQL Server sur Linux. Seul le sysadmin peut effectuer des insertions en bloc pour SQL Server sur Linux.

De plus, l’autorisation ALTER TABLE est nécessaire si une ou plusieurs des conditions suivantes sont définies sur true :

  • Des contraintes existent et l’option CHECK_CONSTRAINTS n’est pas spécifiée.

    La désactivation des contraintes est le comportement par défaut. Pour vérifier les contraintes explicitement, utilisez l'option CHECK_CONSTRAINTS.

  • Des déclencheurs existent et l’option FIRE_TRIGGER n’est pas spécifiée.

    Par défaut, les déclencheurs ne sont pas activés. Pour activer les déclencheurs explicitement, utilisez l'option FIRE_TRIGGER.

  • Vous utilisez l'option KEEPIDENTITY pour importer une valeur d'identité du fichier de données.

Exemples

R. Utiliser des canaux pour l’importation des données d'un fichier

L'exemple suivant importe des informations détaillées de commande dans la table AdventureWorks2022.Sales.SalesOrderDetail, à partir du fichier de données spécifié en utilisant le caractère | comme marque de fin de champ et |\n comme marque de fin de ligne.

BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
   FROM 'f:\orders\lineitem.tbl'
   WITH
      (
         FIELDTERMINATOR = ' |'
         , ROWTERMINATOR = ' |\n'
      );

Important

Azure SQL Database prend uniquement en charge la lecture à partir du stockage Blob Azure.

B. Utiliser l'argument FIRE_TRIGGERS

L'exemple suivant spécifie l'argument FIRE_TRIGGERS.

BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
   FROM 'f:\orders\lineitem.tbl'
   WITH
     (
         FIELDTERMINATOR = ' |'
         , ROWTERMINATOR = ':\n'
         , FIRE_TRIGGERS
      );

Important

Azure SQL Database prend uniquement en charge la lecture à partir du Stockage Blob Azure.

C. Utiliser le saut de ligne comme marque de fin de ligne

L'exemple suivant importe un fichier qui utilise le retour à la ligne comme marque de fin de ligne, par exemple une sortie UNIX :

DECLARE @bulk_cmd VARCHAR(1000);
SET @bulk_cmd = 'BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
FROM ''<drive>:\<path>\<filename>''
WITH (ROWTERMINATOR = '''+CHAR(10)+''')';
EXEC(@bulk_cmd);

Notes

En raison de la façon dont Microsoft Windows traite les fichiers texte, \n est automatiquement remplacé par \r\n.

Important

Azure SQL Database prend uniquement en charge la lecture à partir du stockage Blob Azure.

D. Spécifier une page de codes

L’exemple suivant montre comment spécifier une page de codes.

BULK INSERT MyTable
FROM 'D:\data.csv'
WITH
( CODEPAGE = '65001'
   , DATAFILETYPE = 'char'
   , FIELDTERMINATOR = ','
);

Important

Azure SQL Database prend uniquement en charge la lecture à partir du stockage Blob Azure.

E. Importer des données à partir d'un fichier CSV

L’exemple suivant montre comment spécifier un fichier CSV en ignorant l’en-tête (première ligne), à l’aide de ; comme marque de fin de champ et de 0x0a comme marque de fin de ligne :

BULK INSERT Sales.Invoices
FROM '\\share\invoices\inv-2016-07-25.csv'
WITH (FORMAT = 'CSV'
      , FIRSTROW = 2
      , FIELDQUOTE = '\'
      , FIELDTERMINATOR = ';'
      , ROWTERMINATOR = '0x0a');

L’exemple suivant montre comment spécifier un fichier CSV au format UTF-8 à l’aide d’un CODEPAGE de 65001 en ignorant l’en-tête (première ligne) à l’aide de ; comme marque de fin de champ et 0x0a comme marque de fin de ligne :

BULK INSERT Sales.Invoices
FROM '\\share\invoices\inv-2016-07-25.csv'
WITH ( CODEPAGE = '65001'
      , FORMAT = 'CSV'
      , FIRSTROW = 2
      , FIELDQUOTE = '\'
      , FIELDTERMINATOR = ';'
      , ROWTERMINATOR = '0x0a');

Important

Azure SQL Database prend uniquement en charge la lecture à partir du Stockage Blob Azure.

F. Importer des données à partir d’un fichier dans Stockage Blob Azure

L’exemple suivant montre comment charger des données à partir d’un fichier CSV dans un emplacement de Stockage Blob Azure sur lequel vous avez créé une signature d'accès partagé (SAP). L’emplacement Stockage Blob Azure est configuré en tant que source de données externe, ce qui nécessite des informations d’identification au niveau de la base de données à l’aide d’une clé SAP chiffrée avec un clé principale de la base de données utilisateur.

--> Optional - a MASTER KEY is not required if a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'YourStrongPassword1';
GO
--> Optional - a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE DATABASE SCOPED CREDENTIAL MyAzureBlobStorageCredential
WITH IDENTITY = 'SHARED ACCESS SIGNATURE',
SECRET = '******srt=sco&sp=rwac&se=2017-02-01T00:55:34Z&st=2016-12-29T16:55:34Z***************';

-- NOTE: Make sure that you don't have a leading ? in SAS token, and
-- that you have at least read permission on the object that should be loaded srt=o&sp=r, and
-- that expiration period is valid (all dates are in UTC time)

CREATE EXTERNAL DATA SOURCE MyAzureBlobStorage
WITH ( TYPE = BLOB_STORAGE,
          LOCATION = 'https://****************.blob.core.windows.net/invoices'
          , CREDENTIAL = MyAzureBlobStorageCredential --> CREDENTIAL is not required if a blob is configured for public (anonymous) access!
);

BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (DATA_SOURCE = 'MyAzureBlobStorage');

L’exemple suivant montre comment utiliser la commande BULK INSERT pour charger les données d’un fichier CSV à un emplacement de Stockage Blob Azure qui utilise l’identité managée. L’emplacement du stockage Blob Azure est configuré comme source de données externe.

--> Optional - a MASTER KEY is not required if a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'YourStrongPassword1';
GO
--> Optional - a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE DATABASE SCOPED CREDENTIAL MyAzureBlobStorageCredential 
WITH IDENTITY = 'Managed Identity';
-- NOTE: Make sure you have granted Storage Bob Data Contributor RBAC on storage to provides read/write access to the managed identity for the necessary Azure Blob Storage containers.
CREATE EXTERNAL DATA SOURCE MyAzureBlobStorage
WITH ( TYPE = BLOB_STORAGE,
          LOCATION = 'https://****************.blob.core.windows.net/invoices'
          , CREDENTIAL= MyAzureBlobStorageCredential --> CREDENTIAL is not required if a blob is configured for public (anonymous) access!
);
BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (DATA_SOURCE = 'MyAzureBlobStorage');

Important

L’identité managée s’applique uniquement à Azure SQL. SQL Server ne prend pas en charge l’identité managée.

Important

Azure SQL prend uniquement en charge la lecture à partir du Stockage Blob Azure.

G. Importer des données à partir d’un fichier dans Stockage Blob Azure et spécifier un fichier d’erreur

L’exemple suivant montre comment charger des données à partir d’un fichier CSV dans un emplacement Stockage Blob Azure qui a été configuré comme source de données externe et spécifier un fichier d’erreurs. Vous avez besoin d’informations d’identification délimitées à la base de données avec une signature d’accès partagé. En cas d’exécution sur Azure SQL Database, l’option ERRORFILE doit être accompagnée d’ERRORFILE_DATA_SOURCE. Dans le cas contraire, l’importation peut échouer avec une erreur d’autorisations. Le fichier spécifié dans ERRORFILE ne doit pas exister dans le conteneur.

BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (
         DATA_SOURCE = 'MyAzureInvoices'
         , FORMAT = 'CSV'
         , ERRORFILE = 'MyErrorFile'
         , ERRORFILE_DATA_SOURCE = 'MyAzureInvoices');

Pour obtenir des exemples BULK INSERT complets, illustrant notamment la configuration des informations d’identification et de la source de données externe, consultez Exemples d’accès en bloc à des données dans Stockage Blob Azure.

Autres exemples

D’autres exemples de BULK INSERT sont fournis dans les articles suivants :

Voir aussi