적용 대상:SQL Server
Azure SQL Database
Azure SQL Managed Instance
Microsoft Fabric의 웨어하우스
데이터 파일을 SQL Server에서 사용자가 지정한 형식으로 데이터베이스 테이블 또는 뷰로 가져옵니다.
구문
BULK INSERT
{ database_name.schema_name.table_or_view_name | schema_name.table_or_view_name | table_or_view_name }
FROM 'data_file'
[ WITH
(
[ [ , ] DATA_SOURCE = 'data_source_name' ]
-- text formatting options
[ [ , ] CODEPAGE = { 'RAW' | 'code_page' | 'ACP' | 'OEM' } ]
[ [ , ] DATAFILETYPE = { 'char' | 'widechar' | 'native' | 'widenative' } ]
[ [ , ] ROWTERMINATOR = 'row_terminator' ]
[ [ , ] FIELDTERMINATOR = 'field_terminator' ]
[ [ , ] FORMAT = 'CSV' ]
[ [ , ] FIELDQUOTE = 'quote_characters' ]
[ [ , ] FIRSTROW = first_row ]
[ [ , ] LASTROW = last_row ]
-- input file format options
[ [ , ] FORMATFILE = 'format_file_path' ]
[ [ , ] FORMATFILE_DATA_SOURCE = 'data_source_name' ]
-- error handling options
[ [ , ] MAXERRORS = max_errors ]
[ [ , ] ERRORFILE = 'file_name' ]
[ [ , ] ERRORFILE_DATA_SOURCE = 'errorfile_data_source_name' ]
-- database options
[ [ , ] KEEPIDENTITY ]
[ [ , ] KEEPNULLS ]
[ [ , ] FIRE_TRIGGERS ]
[ [ , ] CHECK_CONSTRAINTS ]
[ [ , ] TABLOCK ]
-- source options
[ [ , ] ORDER ( { column [ ASC | DESC ] } [ , ...n ] ) ]
[ [ , ] ROWS_PER_BATCH = rows_per_batch ]
[ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch ]
[ [ , ] BATCHSIZE = batch_size ]
) ]
BULK INSERT
{ database_name.schema_name.table_or_view_name | schema_name.table_or_view_name | table_or_view_name }
FROM 'data_file'
[ WITH
(
[ [ , ] DATA_SOURCE = 'data_source_name' ]
-- text formatting options
[ [ , ] CODEPAGE = { 'code_page' | 'ACP' } ]
[ [ , ] DATAFILETYPE = { 'char' | 'widechar' } ]
[ [ , ] ROWTERMINATOR = 'row_terminator' ]
[ [ , ] FIELDTERMINATOR = 'field_terminator' ]
[ [ , ] FORMAT = { 'CSV' | 'PARQUET' } ]
[ [ , ] FIELDQUOTE = 'quote_characters' ]
[ [ , ] FIRSTROW = first_row ]
[ [ , ] LASTROW = last_row ]
-- input file format options
[ [ , ] FORMATFILE = 'format_file_path' ]
[ [ , ] FORMATFILE_DATA_SOURCE = 'data_source_name' ]
-- error handling options
[ [ , ] MAXERRORS = max_errors ]
[ [ , ] ERRORFILE = 'file_name' ]
[ [ , ] ERRORFILE_DATA_SOURCE = 'errorfile_data_source_name' ]
) ]
인수
BULK INSERT 문에는 다양한 플랫폼의 다른 인수와 옵션이 있습니다. 차이점은 다음 표에 요약되어 있습니다.
| 특징 | SQL 서버 | Azure SQL Database 및 Azure SQL Managed Instance | 패브릭 데이터 웨어하우스 |
|---|---|---|---|
| 데이터 원본 | 로컬 경로, UNC(네트워크 경로) 또는 Azure Storage | Azure Storage | Azure Storage, One Lake |
| 원본 인증 | Windows 인증, SAS | Microsoft Entra ID, SAS 토큰, 관리 ID | Microsoft Entra ID (마이크로소프트 엔트라 ID) |
| 지원되지 않는 옵션 |
* 파트의 와일드카드, FORMAT = 'PARQUET' |
* 파트의 와일드카드, FORMAT = 'PARQUET' |
DATAFILETYPE = {'native' | 'widenative'} |
| 옵션을 사용하도록 설정했지만 효과가 없습니다. |
KEEPIDENTITY, FIRE_TRIGGERS, CHECK_CONSTRAINTS, TABLOCK, ORDER, ROWS_PER_BATCH, KILOBYTES_PER_BATCH및 BATCHSIZE 적용할 수 없습니다. 구문 오류를 throw하지는 않지만 아무런 영향도 주지 않습니다. |
database_name
지정한 테이블이나 뷰가 상주하는 데이터베이스 이름입니다. 지정하지 않으면 database_name이 현재 데이터베이스입니다.
schema_name
테이블 또는 뷰 스키마의 이름을 지정합니다. 대량 가져오기 작업을 수행하는 사용자의 기본 스키마가 지정한 테이블이나 뷰의 스키마인 경우에는 schema_name을 지정하지 않아도 됩니다. schema를 지정하지 않은 경우 대량 가져오기 작업을 수행하는 사용자의 기본 스키마가 지정된 테이블이나 뷰와 다르면 SQL Server에서 오류 메시지를 반환하고 대량 가져오기 작업이 취소됩니다.
table_name
데이터를 대량으로 가져올 테이블 또는 뷰의 이름을 지정합니다. 모든 열이 동일한 기본 테이블을 참조하는 뷰만 사용할 수 있습니다. 뷰에 데이터를 로드하는 제한 사항에 대한 자세한 내용은 INSERT를 참조하세요.
'data_file'에서
지정한 테이블이나 뷰로 가져올 데이터가 포함된 데이터 파일의 전체 경로를 지정합니다.
BULK INSERT 디스크 또는 Azure 스토리지(네트워크, 플로피 디스크, 하드 디스크 등 포함)에서 데이터를 가져올 수 있습니다.
BULK INSERT bing_covid_19_data
FROM 'C:\\bing_covid-19_data\public\curated\covid-19\latest\bing_covid-19_data.csv';
data_file은 SQL Server가 실행 중인 서버에서 유효한 경로를 지정해야 합니다.
data_file이 원격 파일일 경우 UNC(Universal Naming Convention) 이름을 지정합니다. UNC 이름은 \\SystemName\ShareName\Path\FileName 형식을 사용합니다. 예를 들어:
BULK INSERT bing_covid_19_data
FROM '\\ShareX\bing_covid-19_data\public\curated\covid-19\latest\bing_covid-19_data.csv';
Azure SQL 데이터베이스와 Fabric Data Warehouse는 URI에서 데이터를 읽는 것을 지원하지만, 온프레미스 파일 경로는 지원하지 않습니다.
BULK INSERT bing_covid_19_data
FROM 'https://<data-lake>.blob.core.windows.net/public/curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv';
SQL Server 2017(14.x)부터는 data_file 가 Azure 스토리지에 있을 수 있습니다. 이 경우 data_source_name 옵션도 지정해야 합니다. 예를 들어, Azure 저장소의 파일에서 데이터를 가져오기를 참조하세요.
패브릭 데이터 웨어하우스는 소스 경로를 지정하기 위해 두 가지 다른 경로 스타일을 지원합니다:
https://<storage account>.blob.core.windows.net/<container name>/<path to file>abfss://<container name>@<storage account>.dfs.core.windows.net/<path to file>
Fabric Data Warehouse는 URI 내 모든 문자와 일치할 수 있는 와일드카드를 지원 * 하며, 가져와야 할 파일에 대한 URI 패턴을 정의할 수 있습니다. 예를 들어:
BULK INSERT bing_covid_19_data
FROM 'https://<data-lake>.blob.core.windows.net/public/curated/covid-19/bing_covid-19_data/latest/*.csv';
참고
적절한 URL로 대체 <data-lake>.blob.core.windows.net 합니다.
데이터 소스
적용 대상: SQL Server 2017 (14.x) 이후 버전, Azure SQL 데이터베이스, Microsoft Fabric의 Warehouse.
파일 가져오기를 위한 Azure Storage 루트 위치를 가리키는 이름 있는 외부 데이터 소스를 지정합니다.
CREATE EXTERNAL DATA SOURCE pandemicdatalake
WITH (LOCATION = 'https://<data-lake>.blob.core.windows.net/public/');
참고
적절한 URL로 대체 <data-lake>.blob.core.windows.net 합니다.
자세한 내용은 CREATE EXTERNAL DATA SOURCE를 참조하세요.
절의 FROM 파일 경로는 상대 경로여야 하며, 이는 외부 데이터 소스에서 정의된 루트 위치에 덧붙여집니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', FIRSTROW = 2, LASTROW = 100, FIELDTERMINATOR = ',');
참고
간단히 하기 위해 다음 예시들은 상대 경로와 미리 정의된 외부 데이터 소스를 사용합니다..
CODEPAGE
데이터 파일에서 데이터의 코드 페이지를 지정합니다.
CODEPAGE은 문자 값이 1보다 크거나 작은 문자, 127 또는 32 열이 데이터에 포함된 경우에만 관련이 있습니다. 예제는 코드 페이지 지정을 참조하세요.
BULK INSERT bing_covid_19_data
FROM '/curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', FIRSTROW = 2, CODEPAGE = '65001');
CODEPAGE 는 SQL Server 2017(14.x)용 Linux에서 지원되는 옵션이 아닙니다. SQL Server 2019(15.x)의 'RAW' 경우 옵션만 허용됩니다 CODEPAGE.
서식 파일의 각 열에 대해 데이터 정렬 이름을 지정해야 합니다.
CODEPAGE 값 |
설명 |
|---|---|
ACP |
char, varchar 또는 text 데이터 형식의 열은 ANSI/Microsoft Windows 코드 페이지(ISO 1252)에서 SQL Server 코드 페이지로 변환됩니다. |
OEM(기본값) |
char, varchar 또는 텍스트 데이터 형식의 열은 시스템 OEM 코드 페이지에서 SQL Server 코드 페이지로 변환됩니다. |
RAW |
코드 페이지 간 변환이 일어나지 않습니다.
RAW 는 가장 빠른 옵션입니다. |
| code_page | 특정 코드 페이지 번호(예: 850)입니다. SQL Server 2016 이전 버전(13.x)은 코드 페이지 65001(UTF-8 인코딩)을 지원하지 않습니다. |
CODEPAGE 값 |
설명 |
|---|---|
ACP |
char, varchar 또는 text 데이터 형식의 열은 ANSI/Microsoft Windows 코드 페이지(ISO 1252)에서 SQL Server 코드 페이지로 변환됩니다. |
| code_page | 특정 코드 페이지 번호(예: 850)입니다. SQL Server 2016 이전 버전(13.x)은 코드 페이지 65001(UTF-8 인코딩)을 지원하지 않습니다. |
DATAFILETYPE
BULK INSERT 지정된 데이터 파일 형식 값을 사용하여 가져오기 작업을 수행합니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', FIRSTROW = 2, DATAFILETYPE = 'char');
참고
적절한 URL로 대체 <data-lake>.blob.core.windows.net 합니다.
DATAFILETYPE 값 |
에 표시된 모든 데이터 |
|---|---|
char(기본값) |
문자 형식 자세한 내용은 ' 데이터 가져오기 또는 내보내기 때 문자 형식 사용하기'를 참조하세요. |
widechar |
유니코드 문자 자세한 내용은 데이터를 가져오기 또는 내보내기 위한 유니코드 문자 형식 사용(Use Unicode character format for import or export)을 참조하세요. |
native |
네이티브(데이터베이스) 데이터 형식.
bcp 유틸리티를 사용하여 SQL Server에서 데이터를 대량으로 가져와 원시 데이터 파일을 만듭니다. 네이티브 값은 char 값을 대체하여 보다 뛰어난 성능을 제공합니다. 확장/DBCS(더블바이트 문자 집합) 문자가 포함되어 있지 않은 데이터 파일을 사용하여 여러 개의 SQL Server 인스턴스 간에 데이터를 대량 전송할 때는 네이티브 형식을 사용하는 것이 좋습니다. 자세한 내용은 ' 데이터 가져오기 또는 내보내기 위한 기본 형식 사용'을 참조하세요. |
widenative |
char, varchar 및 text 열을 제외하고 데이터가 유니코드로 저장되는 원시(데이터베이스) 데이터 형식입니다.
widenative
bcp 유틸리티를 사용하여 SQL Server에서 데이터를 대량으로 가져와 데이터 파일을 만듭니다.이 값은 widenative .에 대한 더 높은 성능의 대안을 widechar제공합니다. 데이터 파일에 ANSI 확장 문자 widenative가 포함된 경우 .자세한 내용은 ' 유니코드 네이티브 형식 사용(Use Unicode Native Format to Import or Export)'을 참조하세요. |
DATAFILETYPE 값 |
에 표시된 모든 데이터 |
|---|---|
char(기본값) |
문자 형식 자세한 내용은 ' 데이터 가져오기 또는 내보내기 때 문자 형식 사용하기'를 참조하세요. |
widechar |
유니코드 문자 자세한 내용은 데이터를 가져오기 또는 내보내기 위한 유니코드 문자 형식 사용(Use Unicode character format for import or export)을 참조하세요. |
맥스에이즈
대량 가져오기 작업을 취소하기 전에 데이터에서 허용되는 최대 구문 오류 수를 지정합니다. 대량 가져오기 작업으로 가져올 수 없는 각 행은 무시되고 하나의 오류로 계산됩니다. max_errors를 지정하지 않으면 기본값은 10입니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', MAXERRORS = 0);
MAX_ERRORS 이 옵션은 제약 검사나 돈 및 비전 데이터 타입 변환에는 적용되지 않습니다.
오류 파일
형식 오류가 있어 OLE DB 행 집합으로 변환할 수 없는 행을 수집하는 데 사용되는 파일을 지정합니다. 이러한 행은 데이터 파일에서 "있는 그대로" 이 오류 파일에 복사됩니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake',
ERRORFILE = 'https://<data-lake>.blob.core.windows.net/public/curated/covid-19/bing_covid-19_data/latest/errors');
참고
적절한 URL로 대체 <data-lake>.blob.core.windows.net 합니다.
오류 파일은 명령이 실행될 때 생성됩니다. 파일이 이미 있으면 오류가 발생합니다. 또한 확장 .ERROR.txt 명 있는 컨트롤 파일이 만들어지며, 이 파일은 오류 파일의 각 행을 참조하고 오류 진단을 제공합니다. 오류를 해결하는 즉시 데이터를 로드할 수 있습니다.
SQL Server 2017(14.x)부터는 error_file_path 가 Azure 스토리지에 있을 수 있습니다.
ERRORFILE_DATA_SOURCE
적용 대상: SQL Server 2017(14.x) 이상 버전.
가져오기 중 발견된 오류를 추적하기 위해 오류 파일의 Azure 저장소 위치를 가리키는 이름 있는 외부 데이터 소스를 지정합니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (
DATA_SOURCE = 'pandemicdatalake',
ERRORFILE = 'curated/covid-19/bing_covid-19_data/latest/errors',
ERRORFILE_DATA_SOURCE = 'pandemicdatalake'
);
외부 데이터 소스 생성에 대한 자세한 내용은 CREATE EXTERNAL DATA SOURCE 문서를 참조하세요.
1열
로드할 첫 번째 행의 번호를 지정합니다. 기본값은 지정한 데이터 파일의 첫 번째 행입니다.
FIRSTROW 은 1부터 시작하는 것입니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', FIRSTROW = 2);
이 특성은 FIRSTROW 열 머리글을 건너뛰기 위한 것이 아닙니다. 문은 BULK INSERT 헤더 건너뛰기를 지원하지 않습니다. 행 건너뛰기를 선택하면 SQL Server 데이터베이스 엔진은 필드 종결자만 확인하며 건너뛴 행의 필드에 있는 데이터의 유효성을 검사하지 않습니다.
라스트로우
로드할 마지막 행의 번호를 지정합니다. 기본값은 0이며 지정한 데이터 파일의 마지막 행을 가리킵니다.
배치 크기
일괄 처리에 포함될 행 수를 지정합니다. 모든 일괄 처리는 하나의 트랜잭션으로 서버에 복사됩니다. 이 작업이 실패하면 SQL Server는 모든 일괄 처리에 대한 트랜잭션을 커밋하거나 롤백합니다. 기본적으로 지정된 데이터 파일의 모든 데이터는 하나의 일괄 처리입니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.
제약 조건 확인
대량 가져오기 작업 중 대상 테이블 또는 뷰의 모든 제약 조건을 검사하도록 지정합니다.
CHECK_CONSTRAINTS 옵션이 없으면 제약 CHECK 조건과 FOREIGN KEY 제약 조건이 무시되고 작업 후에 테이블의 제약 조건이 신뢰할 수 없는 것으로 표시됩니다.
UNIQUE 및 PRIMARY KEY 제약 조건은 항상 적용됩니다. 제약 조건으로 NOT NULL 정의된 BULK INSERT 문자 열로 가져올 때 텍스트 파일에 값이 없으면 빈 문자열을 삽입합니다.
특정 지점에서는 전체 테이블의 제약 조건을 확인해야 합니다. 대량 가져오기 작업 전에 테이블이 비어있지 않은 경우 제약 조건을 다시 적용하는 비용이 증분 데이터에 제약 조건을 적용하는 CHECK 비용을 초과할 수 있습니다.
입력 데이터에 제약 조건을 위반하는 행이 포함된 경우에는 제약 조건을 사용하지 않을 수 있습니다(기본 동작).
CHECK 제약 조건을 사용하지 않도록 설정하면 데이터를 가져온 다음 Transact-SQL 문을 사용하여 잘못된 데이터를 제거할 수 있습니다.
참고
이 MAXERRORS 옵션은 제약 조건 검사에 적용되지 않습니다.
화재_트리거
대량 가져오기 작업 중에 대상 테이블에서 정의된 삽입 트리거가 실행되도록 지정합니다. 대상 테이블의 작업에 대해 INSERT 트리거가 정의되면 완료된 모든 일괄 처리에 대해 트리거가 발생합니다.
지정하지 않으면 FIRE_TRIGGERS 삽입 트리거가 실행되지 않습니다.
KEEPIDENTITY
가져온 데이터 파일의 ID 값이 ID 열에 사용되도록 지정합니다. 지정하지 않으면 KEEPIDENTITY 이 열의 ID 값이 확인되지만 가져오지 않으며 SQL Server는 테이블을 만드는 동안 지정된 시드 및 증가 값을 기반으로 고유 값을 자동으로 할당합니다. 데이터 파일에 테이블이나 뷰의 ID 열 값이 포함되지 않은 경우 서식 파일을 사용하여 데이터를 가져올 때 테이블이나 뷰의 ID 열을 생략하도록 지정합니다. SQL Server에서는 해당 열에 고유한 값을 자동으로 할당합니다. 자세한 내용은 DBCC CHECKIDENT를 참조하세요.
자세한 내용은 대 량 데이터 가져오기 시 식별 값 유지에 관한 항목을 참고하세요.
킵널
대량 가져오기 작업 시 삽입된 열에 기본값이 지정되지 않도록 하고, 빈 열이 Null 값을 보유하도록 지정합니다. 자세한 내용은 대량 가져오기 시 null 또는 기본값을 유지하세요.
KILOBYTES_PER_BATCH
일괄 처리당 데이터의 근사치 크기(KB)를 kilobytes_per_batch로 지정합니다. 기본적으로 KILOBYTES_PER_BATCH은/는 알 수 없습니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.
주문
데이터 파일의 데이터 정렬 방법을 지정합니다. 가져올 데이터를 테이블의 클러스터형 인덱스(있는 경우)에 따라 정렬하면 대량 가져오기 성능이 향상됩니다. 데이터 파일이 클러스터형 인덱스 키의 순서가 아닌 순서로 정렬되거나 테이블에 클러스터형 인덱스가 없는 경우 ORDER 절은 무시됩니다. 지정한 열 이름은 대상 테이블에서 올바른 열 이름이어야 합니다. 기본적으로 대량 삽입 작업은 데이터 파일이 정렬되지 않았음을 전제로 합니다. 대량 가져오기 작업을 최적화하기 위해 SQL Server 에서는 가져온 데이터가 정렬되어 있는지도 확인합니다.
n은 복수 열을 지정할 수 있음을 나타내는 자리 표시자입니다.
ROWS_PER_BATCH
데이터 파일에 있는 대략적인 데이터 행 수를 나타냅니다.
기본적으로 데이터 파일의 모든 데이터는 단일 트랜잭션으로 서버에 전송되며 일괄 처리의 행 수는 쿼리 최적화 프로그램에 알려지지 않습니다. 값 ROWS_PER_BATCH 이 0인 경우 > 서버는 이 값을 사용하여 대량 가져오기 작업을 최적화합니다. 지정된 ROWS_PER_BATCH 값은 실제 행 수와 거의 같아야 합니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.
TABLOCK
대량 가져오기 작업이 진행되는 동안 테이블 수준 잠금을 획득하도록 지정합니다. 테이블에 인덱스가 TABLOCK 없고 지정된 경우 여러 클라이언트에서 테이블을 동시에 로드할 수 있습니다. 기본적으로 잠금 동작은 table lock on bulk load테이블 옵션에 의해 결정됩니다. 대량 가져오기 작업이 진행되는 동안에만 잠금을 보유하면 테이블에 대한 잠금 경합이 줄어들고 이 경우 성능이 크게 향상됩니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.
columnstore 인덱스의 경우 잠금 동작은 내부적으로 여러 행 집합으로 구분되기 때문에 차이가 있습니다. 각 스레드는 동시 데이터 로드 세션으로 병렬 데이터 로드를 허용하는 행 집합에서 배타적(X) 잠금을 사용하여 각 행 집합에만 데이터를 로드합니다. 옵션을 사용하면 TABLOCK 다른 동시 스레드가 동시에 데이터를 로드하지 못하게 하는 테이블(기존 행 집합에 대한 BU(대량 업데이트) 잠금과 달리) 스레드가 배타적 잠금을 수행하게 됩니다.
입력 파일 형식 옵션
FORMAT
적용 대상: SQL Server 2017(14.x) 이상 버전.
RFC 4180 표준을 준수하는 쉼표로 구분된 값 파일을 지정합니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', FORMAT = 'CSV');
Fabric Data Warehouse에서는 문장이 BULK INSERT 문장 COPY INTOFORMAT = 'PARQUET' 과 동일한 형식을 지원하므로 또한 지원됩니다.
필드 인용
적용 대상: SQL Server 2017(14.x) 이상 버전.
CSV 파일에서 따옴표 문자로 사용할 문자를 지정합니다. 지정하지 않으면 " 표준에 정의된 따옴표 문자()가 따옴표 문자로 사용됩니다.
FORMATFILE
서식 파일의 전체 경로를 지정합니다. 서식 파일이란 동일한 테이블이나 뷰에서 bcp 유틸리티를 사용하여 생성된 저장 응답을 포함하는 데이터 파일을 말합니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake',
FORMATFILE = 'https://<data-lake>.blob.core.windows.net/public/curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.fmt');
참고
적절한 URL로 대체 <data-lake>.blob.core.windows.net 합니다.
다음과 같은 경우에 서식 파일이 사용됩니다.
- 데이터 파일의 열이 테이블 또는 뷰보다 많거나 적을 경우
- 열 순서가 다를 경우
- 열 구분 기호가 다를 경우
- 데이터 서식에 기타 변경 내용이 있을 경우. 일반적으로 서식 파일은 bcp 유틸리티를 사용하여 만들고 필요에 따라 텍스트 편집기로 수정합니다. 자세한 내용은 bcp 유틸리티 와 bcp로 형식 파일 생성 항목을 참조하세요.
SQL Server 2017(14.x)부터 Azure SQL 데이터베이스 format_file_path 에서는 Azure Storage에 있을 수 있습니다.
FORMATFILE_DATA_SOURCE
적용 대상: SQL Server 2017(14.x) 이상 버전.
임포트된 데이터 스키마를 정의하기 위해 포맷 파일의 Azure 저장소 위치를 가리키는 이름 있는 외부 데이터 소스를 지정합니다.
BULK INSERT bing_covid_19_data
FROM 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (
DATA_SOURCE = 'pandemicdatalake',
FORMATFILE = 'curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.fmt',
FORMATFILE_DATA_SOURCE = 'pandemicdatalake'
);
FIELDTERMINATOR
사용할 char 필드 종료자와 widechar 데이터 파일을 지정합니다. 기본 필드 종결자는 \t(탭 문자)입니다. 자세한 내용은 필드 및 행 종결자 지정을 참조하세요.
BULK INSERT bing_covid_19_data
FROM '/curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', FIELDTERMINATOR = ',', FIRSTROW = 2);
ROWTERMINATOR
사용할 char 행 종료자와 widechar 데이터 파일을 지정합니다.
BULK INSERT bing_covid_19_data
FROM '/curated/covid-19/bing_covid-19_data/latest/bing_covid-19_data.csv'
WITH (DATA_SOURCE = 'pandemicdatalake', ROWTERMINATOR = '\r\n', FIRSTROW = 2);
기본 행 종료자는 (캐리지 리턴과 줄기 변경문자)입니다 \r\n . 자세한 내용은 필드 및 행 종결자 지정을 참조하세요.
호환성
BULK INSERT 는 잘못된 데이터에서 실행될 때 기존 스크립트가 실패할 수 있는 파일에서 읽은 데이터의 엄격한 데이터 유효성 검사 및 데이터 검사를 적용합니다. 예를 들어 다음 BULK INSERT 을 확인합니다.
- float 또는 real 데이터 형식의 원시 표시가 유효한지 여부
- 유니코드 데이터의 길이가 짝수 바이트인지 여부
데이터 유형
String 데이터 형식에서 Decimal 데이터 형식으로의 변환
사용된 BULK INSERT 문자열-소수점 데이터 형식 변환은 과학적 표기법을 사용하는 숫자 값을 나타내는 문자열을 거부하는 Transact-SQL CONVERT 함수와 동일한 규칙을 따릅니다. 따라서 BULK INSERT 이러한 문자열을 잘못된 값으로 처리하고 변환 오류를 보고합니다.
이 동작을 해결하려면 서식 파일을 사용하여 과학적 표기법 float 데이터를 Decimal 열로 대량 가져옵니다. 서식 파일에서 명시적으로 열을 real 또는 float 데이터로 설명합니다. 이러한 데이터 형식에 대한 자세한 내용은 float 및 real을 참조하세요.
서식 파일은 실수 데이터를 SQLFLT4 데이터 형식으로, 부동 데이터를 SQLFLT8 데이터 형식으로 나타냅니다. 비XML 형식 파일에 대한 정보는 'bcp로 파일 저장 유형 지정'을 참조하세요.
과학적 표기법을 사용하는 숫자 값 가져오기 예
이 예에서는 bulktest 데이터베이스에서 다음 테이블을 사용합니다.
CREATE TABLE dbo.t_float
(
c1 FLOAT,
c2 DECIMAL (5, 4)
);
사용자가 t_float 테이블로 데이터를 대량 가져오려고 합니다. 데이터 파일은 C:\t_float-c.dat과학적 표기법 부동 데이터를 포함합니다. 예를 들면 다음과 같습니다.
8.0000000000000002E-2 8.0000000000000002E-2
이 샘플을 복사할 때 탭 문자(\t)를 공백으로 저장하는 여러 텍스트 편집기와 인코딩에 대해 알아야 합니다. 이 샘플의 뒷부분에서 탭 문자가 필요합니다.
그러나 BULK INSERT 두 번째 열t_float은 c2점 데이터 형식을 사용하므로 이 데이터를 직접 가져올 수 없습니다. 따라서 서식 파일이 필요합니다. 서식 파일은 열 의 과학적 표기법 c2 데이터를 Decimal 형식으로 매핑해야 합니다.
다음 형식 파일은 SQLFLT8 데이터 형식을 사용하여 두 번째 데이터 필드를 두 번째 열에 매핑합니다.
<?xml version="1.0"?>
<BCPFORMAT xmlns="http://schemas.microsoft.com/sqlserver/2004/bulkload/format" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<RECORD>
<FIELD ID="1" xsi:type="CharTerm" TERMINATOR="\t" MAX_LENGTH="30" />
<FIELD ID="2" xsi:type="CharTerm" TERMINATOR="\r\n" MAX_LENGTH="30" />
</RECORD>
<ROW>
<COLUMN SOURCE="1" NAME="c1" xsi:type="SQLFLT8" />
<COLUMN SOURCE="2" NAME="c2" xsi:type="SQLFLT8" />
</ROW>
</BCPFORMAT>
이 서식 파일(파일 이름 C:\t_floatformat-c-xml.xml)을 사용하여 테스트 데이터를 테스트 테이블로 가져오려면 다음 Transact-SQL 문을 실행합니다.
BULK INSERT bulktest.dbo.t_float
FROM 'C:\t_float-c.dat'
WITH (FORMATFILE = 'C:\t_floatformat-c-xml.xml');
중요
Azure SQL 데이터베이스와 Fabric Data Warehouse는 URI(예: Azure Storage)에서만 읽기를 지원합니다.
SQLXML 문서 대량 내보내기 또는 가져오기를 위한 데이터 형식
SQLXML 데이터를 대량으로 내보내거나 가져오려면 서식 파일에서 다음 데이터 형식 중 하나를 사용합니다.
| 데이터 형식 | 영향 |
|---|---|
| SQLCHAR 또는 SQLVARCHAR | 데이터를 클라이언트 코드 페이지나 데이터 정렬에 포함된 코드 페이지로 보냅니다. 효과는 서식 파일을 지정하지 않고 DATAFILETYPE = 'char' 지정하는 것과 같습니다. |
| SQLNCHAR 또는 SQLNVARCHAR | 데이터를 유니코드로 보냅니다. 효과는 서식 파일을 지정하지 않고 DATAFILETYPE = 'widechar' 지정하는 것과 같습니다. |
| SQLBINARY 또는 SQLVARBIN | 데이터를 변환하지 않고 보냅니다. |
설명
문장, BULK INSERT 문 INSERT ... SELECT * FROM OPENROWSET(BULK...) 장, 명령어의 bcp 비교는 '데이터 대량 가져오기 및 내보내기'를 참조하세요.
대량 가져오기를 위해 데이터를 준비하는 방법에 대한 자세한 내용은 대량 내보내기 또는 가져오기를 위한 데이터 준비를 참조하세요.
사용자 BULK INSERT 정의 트랜잭션 내에서 문을 실행하여 데이터를 테이블 또는 뷰로 가져올 수 있습니다. 필요에 따라 데이터를 대량으로 가져오기 위해 여러 일치 항목을 사용하려면 트랜잭션에서 문에 절을 BATCHSIZEBULK INSERT 지정할 수 있습니다. 다중 일괄 처리 트랜잭션이 롤백되면 SQL Server로 전송된 모든 일괄 처리가 롤백됩니다.
상호 운용성
CSV 파일에서 데이터 가져오기
SQL Server 2017(14.x) BULK INSERT 부터 Azure SQL Database와 마찬가지로 CSV 형식을 지원합니다.
SQL Server 2017(14.x) 전의 CSV(쉼표로 구분된 값) 파일은 SQL Server 대량 가져오기 작업에서 지원되지 않습니다. 그러나 경우에 따라 데이터를 SQL Server로 대량으로 가져오기 위한 데이터 파일로 CSV(쉼표로 구분된 값) 파일이 사용될 수 있습니다. CSV 데이터 파일에서 데이터를 가져오기 위한 요구 사항에 대한 자세한 내용은 대량 내보내기 또는 가져오기를 위한 데이터 준비를 참조하세요.
로그 동작
SQL Server로 대량 가져오기를 통해 수행되는 행 삽입 작업이 트랜잭션 로그에 기록되는 경우에 대한 자세한 내용은 대량 가져오기에서 최소 로깅을 위한 필수 구성 요소를 참조하세요. 최소 로깅은 Azure SQL Database에서 지원되지 않습니다.
제한점
서식 파일을 BULK INSERT사용하는 경우 최대 1,024개의 필드만 지정할 수 있습니다. 이는 테이블에 허용된 최대 열 수와 동일합니다. 1,024개 이상의 필드 BULK INSERT 가 포함된 데이터 파일과 함께 BULK INSERT 서식 파일을 사용하면 4822 오류가 발생합니다.
bcp 유틸리티에는 이 제한이 없으므로 1,024개 이상의 필드를 포함하는 데이터 파일의 경우 서식 파일 없이 사용 BULK INSERT 하거나 bcp 명령을 사용합니다.
성능 고려 사항
단일 일괄 처리에서 플러시될 페이지 수가 내부 임계값을 초과하면 버퍼 풀의 전체 검색이 일괄 처리를 커밋할 때 플러시할 페이지를 식별할 수 있습니다. 이 전체 검색으로 대량 가져오기 성능이 저하될 수 있습니다. 대용량 버퍼 풀이 느린 I/O 하위 시스템과 결합할 때 내부 임계값이 초과될 수 있습니다. 대규모 컴퓨터에서 버퍼 오버플로를 방지하려면 힌트(대량 최적화 제거)를 사용하지 TABLOCK 않거나 더 작은 일괄 처리 크기(대량 최적화 유지)를 사용하지 마세요.
데이터 로드로 다양한 일괄 처리 크기를 테스트하여 가장 적절하게 작동하는 크기를 찾아야 합니다. 일괄 처리 크기는 부분 롤백에 영향을 줍니다. 프로세스가 실패하고 다시 사용하기 BULK INSERT 전에 오류가 발생하기 전에 성공적으로 삽입된 행의 일부를 제거하기 위해 추가 수동 작업을 수행해야 할 수 있습니다.
Azure SQL Database를 사용하면 대량의 데이터를 가져오는 경우 가져오기 전에 데이터베이스 또는 인스턴스의 성능 수준을 일시적으로 늘리는 것이 좋습니다.
보안
보안 계정 위임(가장)
사용자가 SQL Server 로그인을 사용하는 경우 SQL Server 프로세스 계정의 보안 프로필이 사용됩니다. SQL Server 인증을 사용하는 로그인은 데이터베이스 엔진 외부에서 인증될 수 없습니다. 따라서 SQL Server 인증을 BULK INSERT 사용하여 로그인에서 명령을 시작하면 SQL Server 프로세스 계정(SQL Server 데이터베이스 엔진 서비스에서 사용하는 계정)의 보안 컨텍스트를 사용하여 데이터에 연결합니다.
원본 데이터를 성공적으로 읽으려면 SQL Server 데이터베이스 엔진에서 사용하는 계정에 원본 데이터에 대한 액세스 권한을 부여해야 합니다. 반면 SQL Server 사용자가 Windows 인증을 사용하여 로그온한 경우에는 SQL Server 프로세스의 보안 프로필에 관계없이 해당 사용자 계정으로 액세스할 수 있는 파일만 읽을 수 있습니다.
한 컴퓨터에서 BULK INSERT 또는 osql을 사용하여 문을 실행하고, 두 번째 컴퓨터의 SQL Server에 데이터를 삽입하고, UNC 경로를 사용하여 세 번째 컴퓨터에서 data_file 지정하면 4861 오류가 발생할 수 있습니다.
이러한 오류를 해결하려면 SQL Server 인증을 사용하고 SQL Server 프로세스 계정의 보안 프로필을 사용하는 SQL Server 로그인을 지정하거나 보안 계정 위임을 사용하도록 Windows를 구성하십시오. 위임용으로 사용자 계정이 트러스트될 수 있도록 설정하는 방법은 Windows 도움말을 참조하십시오.
이 항목 및 사용에 대한 기타 보안 고려 사항에 대한 자세한 내용은 BULK INSERT 참조하여 SQL Server로 데이터를 가져옵니다.
Azure 저장소에서 데이터를 가져오고 데이터가 공개되지 않았다면(익명 접근), SAS 키에 데이터베이스 마스터 키(DMK)로 암호화된 데이터베이스 범위 증명을 생성한 후, 명령어에 BULK INSERT 사용할 외부 데이터베이스 소스를 생성하세요.
또는 공용이 아닌 을 만듭니다. Azure Storage를 사용할 MANAGED IDENTITY때, Azure Storage는 스토리지 블 롭 데이터 기여자 내장 Azure 역할 기반 접근 제어(RBAC) 역할을 추가하여 인스턴스의 관리 신원에 권한을 부여해야 하며, 이는 필요한 Azure Storage 컨테이너의 관리 식별자에 대한 읽기/쓰기 권한을 제공합니다. Azure SQL Managed Instance에는 시스템이 할당한 관리 ID가 있으며 하나 이상의 사용자가 할당한 관리 ID가 있을 수도 있습니다. 시스템 할당 관리 ID 또는 사용자 할당 관리 ID를 사용하여 요청에 권한을 부여할 수 있습니다. 권한 부여 default 의 경우 관리되는 인스턴스의 ID(즉, 사용자가 할당한 기본 관리 ID 또는 사용자 할당 관리 ID가 지정되지 않은 경우 시스템 할당 관리 ID)가 사용됩니다. 예를 들어, Azure 저장소의 파일에서 데이터를 가져오기를 참조하세요.
중요
관리 신원은 Azure SQL과 SQL Server 2025(17.x) 이후 버전에 적용됩니다.
사용 권한
다음 권한은 데이터를 대량으로 가져오는 위치(대상)에 적용됩니다.
INSERT 필요 및 ADMINISTER BULK OPERATIONS 사용 권한. Azure SQL Database INSERTADMINISTER DATABASE BULK OPERATIONS 에서는 권한이 필요합니다.
ADMINISTER BULK OPERATIONS 사용 권한 또는 bulkadmin 역할은 Linux의 SQL Server에 대해 지원되지 않습니다. SQL Server on Linux의 경우 sysadmin만 대량 삽입을 수행할 수 있습니다.
ALTER TABLE 또한 다음 조건 중 하나 이상이 true인 경우 사용 권한이 필요합니다.
제약 조건이 있으며
CHECK_CONSTRAINTS옵션이 지정되지 않았습니다.기본적으로 제약 조건은 사용되지 않습니다. 제약 조건을 명시적으로 확인하려면 이
CHECK_CONSTRAINTS옵션을 사용합니다.트리거가 존재하며
FIRE_TRIGGER옵션이 지정되지 않았습니다.기본적으로 트리거는 실행되지 않습니다. 트리거를 명시적으로 실행하려면 이
FIRE_TRIGGER옵션을 사용합니다.이
KEEPIDENTITY옵션을 사용하여 데이터 파일에서 ID 값을 가져옵니다.
예제
이 문서의 코드 샘플은 AdventureWorks2025 또는 AdventureWorksDW2025 샘플 데이터베이스를 사용합니다. 이 데이터베이스는 Microsoft SQL Server 샘플 및 커뮤니티 프로젝트 홈페이지에서 다운로드할 수 있습니다.
중요
Azure SQL 데이터베이스와 Fabric Warehouse는 Azure Storage에서만 읽기를 지원합니다.
A. 파이프를 사용하여 파일에서 데이터 가져오기
다음 예에서는 필드 종결자로 파이프(AdventureWorks2022.Sales.SalesOrderDetail)를 사용하고 행 종결자로 |을 사용하여 지정한 데이터 파일에서 |\n 테이블로 주문 세부 정보를 가져옵니다.
BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
FROM 'f:\orders\lineitem.tbl'
WITH (FIELDTERMINATOR = ' |', ROWTERMINATOR = ' |\n');
B. FIRE_TRIGGERS 인수 사용
다음 예에서는 FIRE_TRIGGERS 인수를 지정합니다.
BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
FROM 'f:\orders\lineitem.tbl'
WITH (FIELDTERMINATOR = ' |', ROWTERMINATOR = ':\n', FIRE_TRIGGERS);
C. 행 종결자로 줄 바꿈 사용
다음 예에서는 UNIX 출력 같은 행 종결자로 줄 바꿈을 사용하는 파일을 가져옵니다.
DECLARE @bulk_cmd AS VARCHAR (1000);
SET @bulk_cmd = 'BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
FROM ''<drive>:\<path>\<filename>''
WITH (ROWTERMINATOR = ''' + CHAR(10) + ''')';
EXECUTE (@bulk_cmd);
참고
Windows에서는 \n 자동으로 \r\n.
D. 코드 페이지 지정
다음 예에서는 코드 페이지를 지정하는 방법을 보여 줍니다.
BULK INSERT MyTable
FROM 'D:\data.csv'
WITH (CODEPAGE = '65001', DATAFILETYPE = 'char', FIELDTERMINATOR = ',');
E. CSV 파일에서 데이터 가져오기
다음 예제는 헤더(첫 행)를 건너뛰고 ;을 필드 종결자로, 0x0a를 행 종결자로 사용하여 CSV 파일을 지정하는 방법을 보여 줍니다.
BULK INSERT Sales.Invoices
FROM '\\share\invoices\inv-2016-07-25.csv'
WITH (
FORMAT = 'CSV',
FIRSTROW = 2,
FIELDQUOTE = '\',
FIELDTERMINATOR = ';',
ROWTERMINATOR = '0x0a'
);
다음 예제는 CSV 파일을 UTF-8 형식(CODEPAGE의 65001 사용)으로 지정하고 헤더(첫 번째 행)를 건너뛰고 ;을 필드 종결자로 사용하고 0x0a를 줄 종결자로 사용하는 방법을 보여 줍니다.
BULK INSERT Sales.Invoices
FROM '\\share\invoices\inv-2016-07-25.csv'
WITH (
CODEPAGE = '65001',
FORMAT = 'CSV',
FIRSTROW = 2,
FIELDQUOTE = '\',
FIELDTERMINATOR = ';',
ROWTERMINATOR = '0x0a'
);
F. Azure Storage 내 파일에서 데이터를 가져오기
Azure 저장소에서 SAS 토큰으로 CSV 데이터를 불러오세요
다음 예시는 공유 액세스 서명(SAS)을 생성한 Azure 저장소 위치에 있는 CSV 파일에서 데이터를 불러오는 방법을 보여줍니다. Azure Storage 위치는 외부 데이터 소스로 구성되어 있어, SAS 키를 사용해 데이터베이스 범위 기반 자격 증명이 사용자 데이터베이스에서 DMK로 암호화되어야 합니다.
참고
SAS 토큰에 리드 ? 가 없는지, 적어도 로드 srt=o&sp=r되어야 할 객체에 대한 읽기 권한이 있어야 하며, 만료 기간이 유효한지(모든 날짜는 UTC 시간) 반드시 확인하세요.
(선택 사항) a DATABASE SCOPED CREDENTIAL 가 필요 없으면 DMK가 필요하지 않습니다. 왜냐하면 블롭이 공개(익명) 접근용으로 설정되어 있기 때문입니다.
CREATE MASTER KEY ENCRYPTION BY PASSWORD = '<password>';
(선택 사항) DATABASE SCOPED CREDENTIAL A는 필요하지 않습니다. 블롭이 공개(익명) 접근용으로 설정되어 있기 때문입니다.
SAS 토큰에 리드 ? 를 포함하지 마세요. 적어도 로드되어야 할 객체에 대해 읽기 권한이 있는지 확인하세요(srt=o&sp=r), 그리고 만료 기간이 유효한지(모든 날짜는 UTC 시간 기준입니다).
CREATE DATABASE SCOPED CREDENTIAL MyAzureBlobStorageCredential
WITH IDENTITY = 'SHARED ACCESS SIGNATURE',
SECRET = '******srt = sco&sp = rwac&se = 2017-02-01T00:55:34Z&st = 2016-12-29T16:55:34Z***************';
참고
CREDENTIAL 블롭이 공개(익명) 접근용으로 설정되어 있다면 필요하지 않습니다.
CREATE EXTERNAL DATA SOURCE MyAzureBlobStorage
WITH (
TYPE = BLOB_STORAGE,
LOCATION = 'https://****************.blob.core.windows.net/invoices',
CREDENTIAL = MyAzureBlobStorageCredential
);
BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (DATA_SOURCE = 'MyAzureBlobStorage');
관리 신원을 가진 Azure 저장소의 CSV 데이터를 불러오세요
다음 예시는 관리 식별을 사용하여 Azure 저장소 위치에 있는 CSV 파일에서 데이터를 불러오는 명령어 BULK INSERT 를 사용하는 방법을 보여줍니다. Azure 스토리지 위치는 외부 데이터 소스로 설정되어 있습니다.
(선택 사항) a DATABASE SCOPED CREDENTIAL 가 필요 없으면 DMK가 필요하지 않습니다. 왜냐하면 블롭이 공개(익명) 접근용으로 설정되어 있기 때문입니다.
CREATE MASTER KEY ENCRYPTION BY PASSWORD = '<password>';
(선택 사항) DATABASE SCOPED CREDENTIAL A는 필요하지 않습니다. 왜냐하면 블롭이 공개(익명) 접근하도록 설정되어 있기 때문입니다:
CREATE DATABASE SCOPED CREDENTIAL MyAzureBlobStorageCredential
WITH IDENTITY = 'Managed Identity';
Storage Blob Data Contributor 역할을 부여하여 필요한 Azure Storage 컨테이너에 대한 관리 신원에 대한 읽기/쓰기 권한을 제공합니다.
참고
CREDENTIAL 블롭이 공개(익명) 접근용으로 설정되어 있다면 필요하지 않습니다.
CREATE EXTERNAL DATA SOURCE MyAzureBlobStorage
WITH (
TYPE = BLOB_STORAGE,
LOCATION = 'https://****************.blob.core.windows.net/invoices',
CREDENTIAL = MyAzureBlobStorageCredential
);
BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (DATA_SOURCE = 'MyAzureBlobStorage');
중요
관리 신원은 SQL Server 2025(17.x) 및 이후 버전과 Azure SQL에 적용됩니다.
G. Azure 저장소의 파일에서 데이터를 가져오고 오류 파일을 지정하세요
다음 예시는 Azure 스토리지 위치에 있는 CSV 파일에서 데이터를 불러오는 방법과 오류 파일을 지정하는 방법을 보여줍니다. 공유 액세스 서명을 사용하는 데이터베이스 범위 자격 증명이 필요합니다. Azure SQL 데이터베이스에서 실행 중일 경우, ERRORFILE 옵션에 와 함께 ERRORFILE_DATA_SOURCE있어야 하며, 그렇지 않으면 권한 오류로 가져오기가 실패할 수 있습니다. 지정된 ERRORFILE 파일이 컨테이너에 없어야 합니다.
BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (
DATA_SOURCE = 'MyAzureInvoices',
FORMAT = 'CSV',
ERRORFILE = 'MyErrorFile',
ERRORFILE_DATA_SOURCE = 'MyAzureInvoices'
);
자격 증명 및 외부 데이터 소스 구성 등 전체 BULK INSERT 예시는 Azure 저장소 내 데이터 대량 접근 예시를 참조하세요.
추가 예제
다른 BULK INSERT 예제는 다음 문서에 제공됩니다.
- XML 문서의 대량 가져오기 및 내보내기 예시
- 데이터를 대량으로 가져올 때 식별 값을 유지하세요
- 대량 가져오기 시 null이나 기본 값을 유지하세요
- 필드 및 행 종말기를 지정하세요
- 포맷 파일을 사용해 데이터를 대량으로 가져오기
- 문자 형식을 사용하여 데이터를 가져오거나 내보내세요
- 데이터를 가져오기 또는 내보내기 위해 네이티브 형식을 사용하세요
- 유니코드 문자 형식을 사용하여 데이터를 가져오거나 내보내세요
- 데이터를 가져오거나 내보내기 위해 유니코드 네이티브 형식을 사용하세요
- 포맷 파일을 사용해 테이블 열을 건너뛰세요
- 포맷 파일을 사용하여 테이블 열을 데이터 파일 필드에 매핑하세요