참고
이 Databricks Runtime 버전에 대한 지원이 종료되었습니다. 지원 종료 날짜는 지원 종료 기록을 참조하세요. 지원되는 모든 Databricks Runtime 버전은 Databricks Runtime 릴리스 정보 버전 및 호환성을 참조하세요.
다음 릴리스 정보는 Apache Spark 3.3.1에서 제공하는 Databricks Runtime 12.1에 대한 정보를 제공합니다.
Databricks는 2023년 1월에 이 버전을 릴리스했습니다.
새로운 기능 및 향상 기능
- 프로토콜 관리에 지원되는 Delta Lake 테이블 기능
- 업데이트에 대한 예측 I/O는 공개 미리 보기로 제공됩니다.
- 이제 카탈로그 탐색기를 모든 가상 사용자가 사용할 수 있습니다.
- 단일 스트리밍 쿼리에서 여러 상태 저장 연산자 지원
- 프로토콜 버퍼에 대한 지원은 공개 미리 보기로 제공됩니다.
- Confluent 스키마 레지스트리 인증 지원
- Delta Sharing을 통한 테이블 기록 공유 지원
- 델타 공유 공유를 사용한 스트리밍 지원
- 이제 카탈로그의 델타 공유 테이블에 대해 타임스탬프를 사용하는 테이블 버전이 지원됩니다.
- 소스와 일치하지 않는 경우에 대한 MERGE INTO 지원
- CONVERT TO DELTA 대한 최적화된 통계 수집
- 테이블 드로핑 해제에 대한 Unity 카탈로그 지원
프로토콜 관리에 지원되는 Delta Lake 테이블 기능
Azure Databricks는 지정된 테이블에서 지원하는 기능을 지정하는 세분화된 플래그를 도입하는 Delta Lake 테이블 기능에 대한 지원을 도입했습니다. Delta Lake 기능 호환성 및 프로토콜을 참조하세요.
업데이트에 대한 예측 I/O는 공개 미리 보기로 제공됩니다.
이제 예측 I/O가 DELETE
, MERGE
, UPDATE
작업을 가속화하며, 이는 Photon 사용 컴퓨팅에서 삭제 벡터가 활성화된 델타 테이블에 대한 것입니다.
예측 I/O란?을 참조하세요.
이제 카탈로그 탐색기를 모든 가상 사용자가 사용할 수 있습니다.
이제 Databricks Runtime 7.3 LTS 이상을 사용할 때 모든 Azure Databricks 가상 사용자가 카탈로그 탐색기를 사용할 수 있습니다.
단일 스트리밍 쿼리에서 여러 상태 저장 연산자 지원
이제 사용자는 스트리밍 쿼리에서 상태 저장 연산자를 추가 모드로 연결할 수 있습니다. 모든 연산자가 완전히 지원되는 것은 아닙니다. 스트림-스트림 시간 간격 조인은 다른 상태 저장 연산자를 연결할 수 없으며 flatMapGroupsWithState
도 연결할 수 없습니다.
프로토콜 버퍼에 대한 지원은 공개 미리 보기로 제공됩니다.
from_protobuf
및 to_protobuf
함수를 사용하여 이진 형식과 구조체 형식 간에 데이터를 교환할 수 있습니다.
읽기 및 쓰기 프로토콜 버퍼를 참조하세요.
Confluent 스키마 레지스트리 인증 지원
Confluent 스키마 레지스트리와 Azure Databricks 통합은 이제 인증을 사용하여 외부 스키마 레지스트리 주소를 지원합니다. 이 기능은 from_avro
, to_avro
, from_protobuf
, to_protobuf
함수에 사용할 수 있습니다. Protobuf 또는 Avro를 참조하세요.
델타 공유 공유를 사용하여 테이블 기록 공유 지원
이제 델타 공유를 사용하여 전체 기록으로 테이블을 공유할 수 있으므로 받는 사람이 Spark 구조적 스트리밍을 사용하여 시간 이동 쿼리를 수행하고 테이블을 쿼리할 수 있습니다.
WITH HISTORY
가 CHANGE DATA FEED
대신 권장되지만, 후자는 계속 지원됩니다.
ALTER SHARE 및 에서 공유에 테이블을 추가하는 방법을 참조하세요.
델타 공유 공유를 사용한 스트리밍 지원
이제 Spark 구조적 스트리밍은 deltasharing
을 사용하여 공유된 원본 델타 공유 테이블의 형식 WITH HISTORY
으로 작동합니다.
이제 카탈로그의 델타 공유 테이블에 대해 타임스탬프를 사용하는 테이블 버전이 지원됩니다.
이제 SQL 구문 TIMESTAMP AS OF
을(를) 문장 SELECT
에서 사용하여 카탈로그에 탑재된 Delta Sharing 테이블의 버전을 지정할 수 있습니다. 를 사용하여 WITH HISTORY
테이블을 공유해야 합니다.
WHEN NOT MATCHED BY SOURCE에 대한 MERGE INTO 지원
WHEN NOT MATCHED BY SOURCE
절을 MERGE INTO
에 추가하여 병합 조건에 기초해 원본 테이블과 일치하지 않는 선택된 테이블의 행을 업데이트하거나 삭제할 수 있습니다. 새 절은 SQL, Python, Scala, Java에서 사용할 수 있습니다.
MERGE INTO참조하세요.
최적화된 CONVERT TO DELTA 통계 수집
이제 작업에 대한 CONVERT TO DELTA
통계 수집이 훨씬 빨라집니다. 이렇게 하면 효율성을 위해 사용할 NO STATISTICS
수 있는 워크로드 수가 줄어듭니다.
테이블 드로핑 해제에 대한 Unity 카탈로그 지원
이 기능은 처음에 공개 미리 보기로 릴리스되었습니다. 2023년 10월 25일 현재 GA입니다.
이제 삭제 후 7일 이내에 기존 스키마에서 삭제된 관리 테이블 또는 외부 테이블을 삭제할 수 있습니다. UNDROP 및 SHOW TABLES DROPPED참조하세요.
라이브러리 업그레이드
- 업그레이드된 Python 라이브러리:
- filelock 3.8.0에서 3.8.2로
- platformdirs 2.5.4에서 2.6.0으로
- setuptools 58.0.4에서 61.2.0으로
- 업그레이드된 R 라이브러리:
- 업그레이드된 Java 라이브러리
- io.delta.delta-sharing-spark_2.12 0.5.2에서 0.6.2로
- org.apache.hive.hive-storage-api 2.7.2에서 2.8.1로
- org.apache.parquet.parquet-column을 1.12.3-databricks-0001에서 1.12.3-databricks-0002로
- org.apache.parquet.parquet-common을 1.12.3-databricks-0001에서 1.12.3-databricks-0002로
- org.apache.parquet.parquet-encoding을 1.12.3-databricks-0001에서 1.12.3-databricks-0002로
- org.apache.parquet.parquet-format-structures를 1.12.3-databricks-0001에서 1.12.3-databricks-0002로 변경합니다.
- org.apache.parquet.parquet-hadoop을 1.12.3-databricks-0001에서 1.12.3-databricks-0002로
- org.apache.parquet.parquet-jackson을 1.12.3-databricks-0001에서 1.12.3-databricks-0002로 업데이트합니다.
- org.tukaani.xz를 1.8에서 1.9로
Apache Spark
Databricks Runtime 12.1에는 Apache Spark 3.3.1이 포함됩니다. 이 릴리스에는 Databricks Runtime 12.0(EoS)에 포함된 모든 Spark 수정 및 개선 사항뿐만 아니라 Spark에 대한 다음과 같은 추가 버그 수정 및 개선 사항이 포함되어 있습니다.
- [SPARK-41405] [SC-119769][12.1.0] Revert “[SC-119411][sql] 열 확인 논리를 중앙화” 및 “[SC-117170][spark-41338][SQL] 외부 참조 및 일반 열을 동일한 분석기 배치 내에서 해결”
- [SPARK-41405] [SC-119411][sql] 열 확인 논리 중앙화
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand가 덮어쓰기 플래그를 올바르게 설정해야 합니다.
- [SPARK-41659] [SC-119526][connect][12.X] pyspark.sql.connect.readwriter에서 doctests를 활성화
- [SPARK-41858] [SC-119427][sql] 기본값 기능으로 인한 ORC 판독기 성능 회귀 수정
- [SPARK-41807] [SC-119399][core] 존재하지 않는 오류 클래스 제거: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] _LEGACY_ERROR_TEMP_2141에 이름 할당
- [SPARK-41571] [SC-119362][sql] _LEGACY_ERROR_TEMP_2310에 이름 할당
- [SPARK-41810] [SC-119373][connect] SparkSession.createDataFrame의 사전 목록에서 이름을 유추합니다.
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Spark Connect 설명서 및 스크립트를 개발/Python 설명서로 이동
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Spark Connect에 대한 초기 클라이언트 모듈 설정
- [SPARK-41365] [SC-118498][ui][3.3] 단계 UI 페이지가 특정 원사 환경에서 프록시에 대해 로드되지 않음
-
[SPARK-41481] [SC-118150][core][SQL]
INVALID_TYPED_LITERAL
대신_LEGACY_ERROR_TEMP_0020
다시 사용 - [SPARK-41049] [SC-119305][sql] 상태 저장 식 처리를 재검토합니다.
-
[SPARK-41726] [SC-119248][sql]
OptimizedCreateHiveTableAsSelectCommand
제거 -
[SPARK-41271] [SC-118648][sc-118348][SQL]
sql()
매개 변수가 있는 SQL 쿼리 지원 -
[SPARK-41066] [SC-119344][connect][PYTHON]
DataFrame.sampleBy
및DataFrame.stat.sampleBy
구현 - [SPARK-41407] [SC-119402][sc-119012][SQL][모든 테스트] WriteFiles에 v1 쓰기 끌어오기
-
[SPARK-41565] [SC-118868][sql] 오류 클래스를 추가합니다
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][sql] DECODE 함수는 NULL을 전달하면 잘못된 결과를 반환합니다.
- [SPARK-41554] [SC-119274] 크기가 m씩 감소할 때 소수 자릿수 변경 수정...
-
[SPARK-41065] [SC-119324][connect][PYTHON]
DataFrame.freqItems
및DataFrame.stat.freqItems
구현하기 - [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] 문서 테스트를 재활성화하고 누락된 열 별칭을 count()에 추가
-
[SPARK-41069] [SC-119310][connect][PYTHON]
DataFrame.approxQuantile
및DataFrame.stat.approxQuantile
구현 -
[SPARK-41809] [SC-119367][connect][PYTHON] 함수
from_json
가 DataType 스키마를 지원하도록 합니다. -
[SPARK-41804] [SC-119382][sql] UDT 배열에 대해
InterpretedUnsafeProjection
올바른 요소 크기 선택 - [SPARK-41786] [SC-119308][connect][PYTHON] 중복 제거 도우미 함수
-
[SPARK-41745] [SC-119378][spark-41789][12.X] 행의
createDataFrame
지원 목록 만들기 - [SPARK-41344] [SC-119217][sql] SupportsCatalogOptions 카탈로그에서 테이블을 찾을 수 없는 경우 오류를 더 명확하게 만듭니다.
-
[SPARK-41803] [SC-119380][connect][PYTHON] 누락 함수
log(arg1, arg2)
추가 - [SPARK-41808] [SC-119356][connect][PYTHON] JSON 함수 지원 옵션 만들기
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python]
__getitem__
가 필터와 선택을 지원하도록 구현하기 - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] 열 연산에 None 지원 추가
- [SPARK-41440] [SC-119279][connect][PYTHON] 일반 샘플에 대한 캐시 연산자를 피합니다.
-
[SPARK-41785] [SC-119290][connect][PYTHON]
GroupedData.mean
구현 사항 - [SPARK-41629] [SC-119276][connect] 관계 및 식의 프로토콜 확장 지원
-
[SPARK-41417] [SC-118000][core][SQL]
_LEGACY_ERROR_TEMP_0019
이름을INVALID_TYPED_LITERAL
로 변경. - [SPARK-41533] [SC-119342][connect][12.X] Spark Connect Server/Client에 대한 적절한 오류 처리
- [SPARK-41292] [SC-119357][connect][12.X] pyspark.sql.window 네임스페이스의 지원 창
- [SPARK-41493] [SC-119339][connect][PYTHON] csv 함수 지원 옵션 만들기
- [SPARK-39591] [SC-118675][ss] 비동기 진행률 추적
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x]
Column.{withField, dropFields}
구현 - [SPARK-41068] [SC-119268][connect][PYTHON] 구현
- [SPARK-41655] [SC-119323][connect][12.X] pyspark.sql.connect.column에서 doctests(문서 테스트)를 사용 가능하게 함
- [SPARK-41738] [SC-119170][connect] SparkSession 캐시에서 ClientId 혼합
-
[SPARK-41354] [SC-119194][connect] proto에
RepartitionByExpression
추가 -
[SPARK-41784] [SC-119289][connect][PYTHON] 열에 누락된
__rmod__
추가 - [SPARK-41778] [SC-119262][sql] ArrayAggregate에 별칭 "reduce" 추가
-
[SPARK-41067] [SC-119171][connect][PYTHON]
DataFrame.stat.cov
구현 시작 - [SPARK-41764] [SC-119216][connect][PYTHON] 내부 문자열 op 이름을 FunctionRegistry와 일치하게 만듭니다.
- [SPARK-41734] [SC-119160][연결] 카탈로그에 대한 부모 메시지 추가
- [SPARK-41742] [SC-119263] df.groupBy().agg({"*":"count"}) 기능 지원
- ko-KR: [SPARK-41761] [SC-119213][connect][PYTHON] 산술 연산 수정하기:
__neg__
,__pow__
,__rpow__
-
[SPARK-41062] [SC-118182][sql]
UNSUPPORTED_CORRELATED_REFERENCE
을(를)CORRELATED_REFERENCE
(으)로 이름 변경 -
[SPARK-41751] [SC-119211][connect][PYTHON]
Column.{isNull, isNotNull, eqNullSafe}
수정 -
[SPARK-41728] [SC-119164][connect][PYTHON][12.x]
unwrap_udt
함수 구현 -
[SPARK-41333] [SC-119195][spark-41737] 구현
GroupedData.{min, max, avg, sum}
-
[SPARK-41751] [SC-119206][connect][PYTHON] 수정
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][sql] Aggregate에서 암시적 횡적 열 별칭 확인 지원
- [SPARK-41529] [SC-119207][connect][12.X] SparkSession.stop 구현
-
[SPARK-41729] [SC-119205][core][SQL][12.x]
_LEGACY_ERROR_TEMP_0011
를UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
로 변경 - [SPARK-41717] [SC-119078][connect][12.X] LogicalPlan에서 print 및 repr_html 중복 제거
-
[SPARK-41740] [SC-119169][connect][PYTHON] 구현 완료
Column.name
- [SPARK-41733] [SC-119163][sql][SS] ResolveWindowTime 규칙에 대한 트리 패턴 기반 정리 적용
- [SPARK-41732] [SC-119157][sql][SS] SessionWindowing 규칙에 트리 패턴 기반 정리 적용
- [SPARK-41498] [SC-119018] Union을 통해 메타데이터 전파
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] 열 접근자 구현
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_types
ArrayType
지원해야 합니다. -
[SPARK-41473] [SC-119092][connect][PYTHON]
format_number
함수 구현 - [SPARK-41707] [SC-119141][connect][12.X] Spark Connect에서 카탈로그 API 구현
-
[SPARK-41710] [SC-119062][connect][PYTHON] 구현
Column.between
- [SPARK-41235] [SC-119088][sql][PYTHON]고차 함수: array_compact 구현
-
[SPARK-41518] [SC-118453][sql] 오류 클래스에 이름 지정하기
_LEGACY_ERROR_TEMP_2422
-
[SPARK-41723] [SC-119091][connect][PYTHON]
sequence
함수 구현 - [SPARK-41703] [SC-119060][connect][PYTHON] NullType 및 typed_null을 리터럴에 결합
- [SPARK-41722] [SC-119090][connect][PYTHON] 누락된 시간 창 함수 3개 구현
- [SPARK-41503] [SC-119043][connect][PYTHON] 파티션 변환 함수 구현
- [SPARK-41413] [SC-118968][sql] 파티션 키가 일치하지 않지만 조인 식이 호환되는 경우 스토리지-파티셔닝된 조인에서 셔플 방지
-
[SPARK-41700] [SC-119046][connect][PYTHON] 을 제거
FunctionBuilder
-
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_types
MapType
지원해야 합니다. - [SPARK-41702] [SC-119049][connect][PYTHON] 유효하지 않은 열 작업 추가
- [SPARK-41660] [SC-118866][sql] 사용되는 경우에만 메타데이터 열을 전파
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] 각 매퍼의 행 개수 메트릭을 수집할 누적기를 구현하기
- [SPARK-41647] [SC-119064][connect][12.X] pyspark.sql.connect.functions의 문서 문자열 중복 제거
-
[SPARK-41701] [SC-119048][connect][PYTHON] 열 작업을 지원하도록 만들기
decimal
-
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693]
rollup
,cube
및pivot
구현 - [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] pyspark.sql.connect.dataframe에서 문서 문자열 중복 제거
- [SPARK-41688] [SC-118951][connect][PYTHON] 식을 expressions.py로 이동
- [SPARK-41687] [SC-118949][connect] pyspark.sql.connect.group의 docstring 중복 제거
- [SPARK-41649] [SC-118950][connect] pyspark.sql.connect.window의 도큐먼트 문자열 중복 제거
- [SPARK-41681] [SC-118939][connect] GroupedData를 group.py로 분리하기
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x]
Window
함수 구현 -
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] 열 연산 지원 추가
datetime
- [SPARK-41672] [SC-118929][connect][PYTHON] 사용되지 않는 함수 사용
-
[SPARK-41673] [SC-118932][connect][PYTHON]
Column.astype
구현 -
[SPARK-41364] [SC-118865][connect][PYTHON]
broadcast
함수 구현 - [SPARK-41648] [SC-118914][connect][12.X] pyspark.sql.connect.readwriter에서 문서 문자열 중복 제거
- [SPARK-41646] [SC-118915][connect][12.X] pyspark.sql.connect.session의 문서 문자열 중복 제거
- [SPARK-41643] [SC-118862][connect][12.X] pyspark.sql.connect.column의 문서 문자열 중복 제거
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] 나머지 람다 함수 구현
- [SPARK-41441] [SC-118557][sql] 외부 참조를 호스트하는 데 필요한 자식 출력 없이 생성 지원
- [SPARK-41669] [SC-118923][sql] canCollapseExpressions의 초기 정리
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : SchemaConverters에서 ScalaReflectionLock 제거
-
[SPARK-41464] [SC-118861][connect][PYTHON]를 구현
DataFrame.to
-
[SPARK-41434] [SC-118857][connect][PYTHON] 초기
LambdaFunction
구현 - [SPARK-41539] [SC-118802][sql] LogicalRDD에 대한 논리 계획(Logical Plan)의 출력에 통계 및 제약 조건을 다시 매핑하기.
- [SPARK-41396] [SC-118786][sql][PROTOBUF] OneOf 필드 지원 및 재귀 검사
- [SPARK-41528] [SC-118769][connect][12.X] Spark Connect 및 PySpark API의 병합 네임스페이스
- [SPARK-41568] [SC-118715][sql] _LEGACY_ERROR_TEMP_1236에 이름 할당
-
[SPARK-41440] [SC-118788][connect][PYTHON] 기능 구현
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] 종속성을 지정하여 spark Connect 및 protobuf를 setup.py 추가
- [SPARK-27561] [SC-101081][12.x][SQL] Project에서 암시적 횡적 열 별칭 확인 지원
-
[SPARK-41535] [SC-118645][sql]
InterpretedUnsafeProjection
및InterpretedMutableProjection
달력 간격 필드에 대해 null을 올바르게 설정합니다. - [SPARK-40687] [SC-118439][sql] 데이터 마스킹 기본 제공 함수 'mask' 지원
- [SPARK-41520] [SC-118440][sql] AND_OR 트리 패턴을 각각 AND 트리 패턴과 OR 트리 패턴으로 분리하기.
- [SPARK-41349] [SC-118668][connect][PYTHON] DataFrame.hint 기능 구현
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_types
StructType을 지원해야 합니다. -
[SPARK-41334] [SC-118549][connect][PYTHON]
SortOrder
프로토(proto)를 관계에서 식으로 이동 - [SPARK-41387] [SC-118450][ss] Trigger.AvailableNow에 대한 Kafka 데이터 원본에서 현재 끝 오프셋을 확인
-
[SPARK-41508] [SC-118445][core][SQL]
_LEGACY_ERROR_TEMP_1180
을UNEXPECTED_INPUT_TYPE
로 이름을 변경하고_LEGACY_ERROR_TEMP_1179
를 제거합니다. -
[SPARK-41319] [SC-118441][connect][PYTHON] 열 구현 {when, 그렇지 않으면} 및 function
when
UnresolvedFunction
- [SPARK-41541] [SC-118460][sql] SQLShuffleWriteMetricsReporter.decRecordsWritten()에서 잘못된 자식 메서드 호출 수정
-
[SPARK-41453] [SC-118458][connect][PYTHON] 구현
DataFrame.subtract
- [SPARK-41248] [SC-118436][sc-118303][SQL] "spark.sql.json.enablePartialResults"를 추가하여 JSON 부분 결과를 사용하거나 사용하지 않도록 설정합니다.
- [SPARK-41437] "[SC-117601][sql] v1 쓰기 대체를 위해 입력 쿼리를 두 번 최적화하지 마십시오" 되돌리기
- [SPARK-41472] [SC-118352][connect][PYTHON] 나머지 문자열/이진 함수 구현
-
[SPARK-41526] [SC-118355][connect][PYTHON]
Column.isin
을 구현하다 - [SPARK-32170] [SC-118384] [CORE] 단계 작업 메트릭을 통해 추측을 개선합니다.
- [SPARK-41524] [SC-118399][ss] RocksDBConf에서의 사용을 위해 StateStoreConf 내 SQLConf와 extraOptions 구별
- [SPARK-41465] [SC-118381][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] LongToUnsafeRowMap 지원 중복 키 무시
-
[SPARK-41409] [SC-118302][core][SQL]
_LEGACY_ERROR_TEMP_1043
의 이름을WRONG_NUM_ARGS.WITHOUT_SUGGESTION
으로 변경합니다. -
[SPARK-41438] [SC-118344][connect][PYTHON] 구현
DataFrame.colRegex
- [SPARK-41437] [SC-117601][sql] v1 쓰기 대체를 위해 입력 쿼리를 두 번 최적화하지 마세요.
-
[SPARK-41314] [SC-117172][sql] 오류 클래스에 이름 할당
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] DataType을 지원하도록 LiteralExpression을 리팩토링하기
- [SPARK-41448] [SC-118046] FileBatchWriter 및 FileFormatWriter에서 일관된 MR 작업 ID 만들기
- [SPARK-41456] [SC-117970][sql] try_cast의 성능을 향상시킵니다.
-
[SPARK-41495] [SC-118125][connect][PYTHON]
collection
함수 구현: P~Z - [SPARK-41478] [SC-118167][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] 오류 메시지를
NUM_COLUMNS_MISMATCH
위해 리팩터링하여 더 일반화되도록 합니다. -
[SPARK-41404] [SC-118016][sql]
ColumnVectorUtils#toBatch
리팩터링하여ColumnarBatchSuite#testRandomRows
테스트에 더 원시적인 dataType을 만듭니다. - [SPARK-41468] [SC-118044][sql] EquivalentExpressions에서 PlanExpression 처리 수정
- [SPARK-40775] [SC-118045][sql] V2 파일 검색에 대한 중복 설명 항목 수정
- [SPARK-41492] [SC-118042][connect][PYTHON] MISC 함수 구현
- [SPARK-41459] [SC-118005][sql] thrift 서버의 작업 로그 출력이 비어 있습니다.
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjection
setDecimal
사용하여 안전하지 않은 행의 10진수에 null 값을 설정해야 합니다. - [SPARK-41376] [SC-117840][core][3.3] 실행기 시작 시 Netty preferDirectBufs 확인 논리 수정
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x]
collection
함수 구현: E~M -
[SPARK-41389] [SC-117426][core][SQL]
WRONG_NUM_ARGS
대신_LEGACY_ERROR_TEMP_1044
다시 사용 - [SPARK-41462] [SC-117920][sql] 날짜 및 타임스탬프 유형을 TimestampNTZ로 변환할 수 있습니다.
-
[SPARK-41435] [SC-117810][sql]
invalidFunctionArgumentsError
비어 있지 않은 경우curdate()
대한expressions
호출하도록 변경 - [SPARK-41187] [SC-118030][core] ExecutorLost 발생 시 AppStatusListener에서 라이브 실행기 메모리 누수
- [SPARK-41360] [SC-118083][core] 실행기가 손실된 경우 BlockManager 다시 등록 방지
- [SPARK-41378] [SC-117686][sql] DS v2의 열 통계 지원
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] StringDecode의 prettyName 재정의
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] 날짜/타임스탬프 함수 구현
- [SPARK-41329] [SC-117975][connect] Spark Connect에서 순환 가져오기 해결
- [SPARK-41477] [SC-118025][connect][PYTHON] 리터럴 정수의 데이터 형식을 올바르게 유추합니다.
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x]
createDataFrame
지원 스키마 및 더 많은 입력 데이터 세트 형식 만들기 - [SPARK-41475] [SC-117997][connect] lint-scala 명령 오류 및 오타 수정
- [SPARK-38277] [SC-117799][ss] RocksDB 상태 저장소 커밋 후 쓰기 일괄 처리 지우기
- [SPARK-41375] [SC-117801][ss] KafkaSourceOffset가 최신 상태일 때 비어 있지 않도록 방지
-
[SPARK-41412] [SC-118015][connect] 기능 구현
Column.cast
-
[SPARK-41439] [SC-117893][connect][PYTHON]
DataFrame.melt
및DataFrame.unpivot
구현하기 - [SPARK-41399] [SC-118007][sc-117474][CONNECT] 열 관련 테스트를 test_connect_column으로 리팩토링합니다.
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Column에서 != 연산자가 지원되어야 합니다.
- [SPARK-40697] [SC-117806][sc-112787][SQL] 외부 데이터 파일을 포괄하기 위한 읽기 측 문자 패딩 추가
- [SPARK-41349] [SC-117594][connect][12.X] DataFrame.hint 구현
- [SPARK-41338] [SC-117170][sql] 동일한 분석기 일괄 처리에서 외부 참조 및 일반 열을 해결
-
[SPARK-41436] [SC-117805][connect][PYTHON]
collection
함수 구현: A~C - [SPARK-41445] [SC-117802][connect] DataFrameReader.parquet 구현
-
[SPARK-41452] [SC-117865][sql]
to_char
형식이 null인 경우 null을 반환해야 합니다. - [SPARK-41444] [SC-117796][connect] read.json() 지원
- [SPARK-41398] [SC-117508][sql] 런타임 필터링 후 파티션 키가 일치하지 않는 경우 Storage-Partitioned 조인에 대한 제약 조건 완화
-
[SPARK-41228] [SC-117169][sql] 이름 변경 및
COLUMN_NOT_IN_GROUP_BY_CLAUSE
오류 메시지 개선. -
[SPARK-41381] [SC-117593][connect][PYTHON]
count_distinct
및sum_distinct
함수 구현 - [SPARK-41433] [SC-117596][connect] 최대 화살표 배치 크기 구성 가능
- [SPARK-41397] [SC-117590][connect][PYTHON] 문자열/이진 함수의 일부 구현
-
[SPARK-41382] [SC-117588][connect][PYTHON]
product
함수 구현 -
[SPARK-41403] [SC-117595][connect][PYTHON]
DataFrame.describe
구현 - [SPARK-41366] [SC-117580][connect] DF.groupby.agg()가 호환되어야 합니다.
- [SPARK-41369] [SC-117584][connect] 서버의 음영 처리된 jar에 공통 연결 추가
- [SPARK-41411] [SC-117562][ss] 다중 상태 연산자의 워터마크 지원 관련 버그 수정
- [SPARK-41176] [SC-116630][sql] 오류 클래스 _LEGACY_ERROR_TEMP_1042 이름 할당
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] 집계 함수 구현
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] 일반 함수 구현
- [SPARK-41305] [SC-117411][connect] 명령 프로토콜에 대한 문서 개선
- [SPARK-41372] [SC-117427][connect][PYTHON] DataFrame TempView 구현
- [SPARK-41379] [SC-117420][ss][PYTHON] PySpark의 foreachBatch 싱크에 대한 사용자 함수의 DataFrame에서 복제된 Spark 세션 제공
- [SPARK-41373] [SC-117405][sql][ERROR] CAST_WITH_FUN_SUGGESTION을 CAST_WITH_FUNC_SUGGESTION으로 이름 변경
-
[SPARK-41358] [SC-117417][sql]
ColumnVectorUtils#populate
대신PhysicalDataType
사용하도록DataType
메서드 리팩터링 - [SPARK-41355] [SC-117423][sql] 하이브 테이블 이름 유효성 검사 문제 해결
-
[SPARK-41390] [SC-117429][sql]
register
UDFRegistration
함수를 생성하는 데 사용되는 스크립트를 업데이트합니다. -
[SPARK-41206] [SC-117233][sc-116381][SQL] 오류 클래스 이름을
_LEGACY_ERROR_TEMP_1233
에서COLUMN_ALREADY_EXISTS
으로 변경 - [SPARK-41357] [SC-117310][connect][PYTHON][12.x] 수학 함수 구현
- [SPARK-40970] [SC-117308][connect][PYTHON] Join's on 인수에 대한 지원 목록[열]
- [SPARK-41345] [SC-117178][연결] Proto 연결에 힌트 추가
- [SPARK-41226] [SC-117194][sql][12.x] 물리적 형식을 도입하여 Spark 형식 리팩터링
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] DataFrameWriter에 대한 기본 지원 추가
- [SPARK-41347] [SC-117173][connect] 표현 프로토에 캐스트 추가
- ko-KR: [SPARK-41323] [SC-117128][sql] current_schema 지원
- [SPARK-41339] [SC-117171][sql] 단순히 지우는 대신 RocksDB 쓰기 일괄 처리를 닫고 다시 만듭니다.
- [SPARK-41227] [SC-117165][connect][PYTHON] DataFrame 교차 조인 구현
-
[SPARK-41346] [SC-117176][connect][PYTHON]
asc
및desc
함수 구현 - [SPARK-41343] [SC-117166][connect] FunctionName 구문 분석을 서버 쪽으로 이동
- [SPARK-41321] [SC-117163][connect] UnresolvedStar에 대한 지원 대상 필드
-
[SPARK-41237] [SC-117167][sql] 오류 클래스
UNSUPPORTED_DATATYPE
를_LEGACY_ERROR_TEMP_0030
에 재사용하기 -
[SPARK-41309] [SC-116916][sql]
INVALID_SCHEMA.NON_STRING_LITERAL
대신_LEGACY_ERROR_TEMP_1093
다시 사용 -
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO]
StructType
생성자 사용 최적화 - [SPARK-41335] [SC-117135][connect][PYTHON] 열에서 IsNull 및 IsNotNull을 지원
-
[SPARK-41332] [SC-117131][connect][PYTHON]
nullOrdering
문제를 해결SortOrder
- [SPARK-41325] [SC-117132][connect][12.X] DF의 GroupBy에 대한 누락된 avg() 문제 수정
-
[SPARK-41327] [SC-117137][core] On/OffHeapStorageMemory 정보를 토글하여
SparkStatusTracker.getExecutorInfos
를 수정. -
[SPARK-41315] [SC-117129][connect][PYTHON]
DataFrame.replace
및DataFrame.na.replace
구현 - [SPARK-41328] [SC-117125][connect][PYTHON] 열에 논리 및 문자열 API 추가
-
[SPARK-41331] [SC-117127][connect][PYTHON]
orderBy
및drop_duplicates
추가 -
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternal
잠금이 정상적으로 잠금 해제되었는지 확인해야 합니다. - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] API 호환성을 위한 "열" 리팩터링
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] DataFrame.withColumnRenamed 메서드 구현
-
[SPARK-41221] [SC-116607][sql] 오류 클래스
INVALID_FORMAT
추가 - [SPARK-41272] [SC-116742][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql]
INVALID_SCHEMA
대신_LEGACY_ERROR_TEMP_1227
다시 사용 - [SPARK-41260] [SC-116880][python][SS][12.x] GroupState 업데이트에서 NumPy 인스턴스를 Python 기본 형식으로 캐스트
-
[SPARK-41174] [SC-116609][core][SQL] 잘못된
format
의to_binary()
에 대해 사용자에게 오류 클래스를 전달 - [SPARK-41264] [SC-116971][connect][PYTHON] 리터럴이 더 많은 데이터 형식을 지원하도록 개선하기
- [SPARK-41326] [SC-116972] [CONNECT] 중복 제거가 누락된 입력 수정
- [SPARK-41316] [SC-116900][sql] 가능한 경우 꼬리 재귀 사용
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] 필터에서 문자열 식을 지원합니다.
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] DataFrame.withColumn(s) 메서드 구현
- [SPARK-41182] [SC-116632][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] 맵 옵션 오류를 오류 클래스로 이동하다
- [SPARK-40940] [SC-115993][12.x] 스트리밍 쿼리에 대한 다중 상태 저장 연산자 검사기를 제거합니다.
- [SPARK-41310] [SC-116885][connect][PYTHON] DataFrame.toDF 구현
- [SPARK-41179] [SC-116631][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] codegen이 사용하지 않도록 설정된 경우 BHJ LeftAnti는 numOutputRows를 업데이트하지 않습니다.
-
[SPARK-41148] [SC-116878][connect][PYTHON]
DataFrame.dropna
구현 및DataFrame.na.drop
구현 -
[SPARK-41217] [SC-116380][sql] 오류 클래스
FAILED_FUNCTION_CALL
추가 - [SPARK-41308] [SC-116875][connect][PYTHON] DataFrame.count() 향상시키다
- [SPARK-41301] [SC-116786] [CONNECT] SparkSession.range()에 대한 균질화 동작
- [SPARK-41306] [SC-116860][connect] Connect 식 프로토 문서 개선
- [SPARK-41280] [SC-116733][connect] DataFrame.tail 기능 구현
- [SPARK-41300] [SC-116751] [CONNECT] 설정되지 않은 스키마는 스키마로 해석됨
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] RemoteSparkSession 이름 바꾸기
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas는 선택적 pandas 데이터 프레임을 반환해서는 안 됩니다.
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explain
내용을 인쇄하고 None을 반환해야 함 - [SPARK-41278] [SC-116732][connect] Expression.proto에서 사용되지 않는 QualifiedAttribute 정리
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Scala 2.13 코드에서 중복 컬렉션 변환 기반 제거
- [SPARK-41261] [SC-116718][python][SS] 그룹화 키 열이 가장 이른 시점부터 순서대로 배치되지 않은 경우 applyInPandasWithState에 대한 문제 해결
- [SPARK-40872] [SC-116717][3.3] 푸시 병합된 셔플 청크 크기가 0인 경우 원래 셔플 블록으로 재전환
- [SPARK-41114] [SC-116628][connect] LocalRelation에 대한 로컬 데이터 지원
-
[SPARK-41216] [SC-116678][connect][PYTHON]
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
구현 - [SPARK-41238] [SC-116670][connect][PYTHON] 추가 기본 제공 데이터 형식 지원
-
[SPARK-41230] [SC-116674][connect][PYTHON] 집계 식 형식에서
str
제거 - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] 서버에서 클라이언트로 스트림하도록 최적화된 화살표 기반 수집 구현
- [SPARK-41222] [SC-116625][connect][PYTHON] 입력 정의 통합
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] 지원되지 않는 함수를 사용하지 않도록 설정합니다.
-
[SPARK-41201] [SC-116526][connect][PYTHON] Python 클라이언트에서
DataFrame.SelectExpr
구현 - [SPARK-41203] [SC-116258] [CONNECT] Python 클라이언트에서 Dataframe.tansform을 지원합니다.
-
[SPARK-41213] [SC-116375][connect][PYTHON]
DataFrame.__repr__
및DataFrame.dtypes
구현 -
[SPARK-41169] [SC-116378][connect][PYTHON] 구현
DataFrame.drop
- [SPARK-41172] [SC-116245][sql] 모호한 ref 오류를 오류 클래스로 마이그레이션
- [SPARK-41122] [SC-116141][connect] 설명 API는 다른 모드를 지원할 수 있습니다.
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] _merge_type 메서드에서 PySpark 형식 유추 개선
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] 동일한 주 버전을 사용하도록 Spark 연결 서버에서 protobuf 버전을 균질화합니다.
- [SPARK-35531] [SC-116409][sql] 불필요한 변환 없이 hive 테이블 통계 업데이트
- [SPARK-41154] [SC-116289][sql] 시간 여행 사양이 적용된 쿼리에서의 올바르지 않은 관계 캐싱
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python]
DataFrame.isEmpty
구현 -
[SPARK-41135] [SC-116400][sql]
UNSUPPORTED_EMPTY_LOCATION
이름을INVALID_EMPTY_LOCATION
로 바꾸기 - [SPARK-41183] [SC-116265][sql] 캐싱을 위한 계획 정규화를 수행하는 확장 API 추가
- [SPARK-41054] [SC-116447][ui][CORE] Live UI에서 KVStore로 RocksDB 지원
- [SPARK-38550] [SC-115223]Revert "[SQL][core] 디스크 기반 저장소를 사용하여 라이브 UI에 대한 더 많은 디버그 정보 저장"
-
[SPARK-41173] [SC-116185][sql] 문자열 식의 생성자에서
require()
이동 - [SPARK-41188] [SC-116242][core][ML] spark executor JVM 프로세스에 대해 기본적으로 spark.task.cpus로 executorEnv OMP_NUM_THREADS 설정
-
[SPARK-41130] [SC-116155][sql]
OUT_OF_DECIMAL_TYPE_RANGE
이름을NUMERIC_OUT_OF_SUPPORTED_RANGE
로 합니다 - [SPARK-41175] [SC-116238][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] AttributeMap을 만들 때 컬렉션 변환 감소
-
[SPARK-41139] [SC-115983][sql] 오류 클래스 개선:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][protobuf] Java 클래스 JAR 파일에 음영 적용 필요, 오류 처리 개선
- [SPARK-40999] [SC-116168] 하위 쿼리로 힌트 전파
- [SPARK-41017] [SC-116054][sql] 여러 비결정적 필터를 사용하여 열 정리 지원
- [SPARK-40834] [SC-114773][sql] SparkListenerSQLExecutionEnd를 사용하여 UI에서 최종 SQL 상태 추적
-
[SPARK-411118] [SC-116027][sql]
to_number
/try_to_number
형식이null
때null
반환해야 합니다. - [SPARK-39799] [SC-115984][sql] DataSourceV2: 카탈로그 인터페이스 보기
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Apache Spark 이진 릴리스에 Spark Connect 포함 방지
- [SPARK-41048] [SC-116043][sql] AQE 캐시를 사용하여 출력 분할 및 순서 개선
- [SPARK-41198] [SC-116256][ss] CTE 및 DSv1 스트리밍 원본이 있는 스트리밍 쿼리의 메트릭 수정
- [SPARK-41199] [SC-116244][ss] DSv1 스트리밍 원본 및 DSv2 스트리밍 원본이 공동 사용되는 경우 메트릭 문제 해결
- [SPARK-40957] [SC-116261][sc-114706] HDFSMetadataLog의 메모리 캐시에 추가
- [SPARK-40940] “[SC-115993] 스트리밍 쿼리에 대한 다중 상태 저장 연산자 검사기 제거” 되돌리기
-
[SPARK-41090] [SC-116040][sql] 데이터셋 API로 임시 보기를 생성할 때
db_name.view_name
에 대한 예외를 throw합니다. -
[SPARK-41133] [SC-116085][sql]
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
를NUMERIC_VALUE_OUT_OF_RANGE
에 통합 - [SPARK-40557] [SC-116182][sc-111442][CONNECT] 코드 덤프 9 커밋
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] 섀이딩된 종속성을 사용하는 드라이버 플러그인으로 Spark Connect 빌드
- [SPARK-41096] [SC-115812][sql] parquet FIXED_LEN_BYTE_ARRAY 형식 읽기 지원
-
[SPARK-41140] [SC-115879][sql] 오류 클래스
_LEGACY_ERROR_TEMP_2440
를INVALID_WHERE_CONDITION
으로 이름 변경 - [SPARK-40918] [SC-114438][sql] Columnar 출력 생성 시 FileSourceScanExec와 Orc 및 ParquetFileFormat 간의 불일치
- [SPARK-41155] [SC-115991][sql] SchemaColumnConvertNotSupportedException에 오류 메시지 추가
- [SPARK-40940] [SC-115993] 스트리밍 쿼리에 대한 다중 상태 저장 연산자 검사기를 제거합니다.
-
[SPARK-41098] [SC-115790][sql]
GROUP_BY_POS_REFERS_AGG_EXPR
을(를)GROUP_BY_POS_AGGREGATE
으로(로) 이름 변경하기 - [SPARK-40755] [SC-115912][sql] 숫자 서식 지정의 유형 검사 실패를 오류 클래스에 마이그레이션하기
-
[SPARK-41059] [SC-115658][sql]
_LEGACY_ERROR_TEMP_2420
이름을NESTED_AGGREGATE_FUNCTION
으로 변경하십시오 - [SPARK-41044] [SC-115662][sql] DATATYPE_MISMATCH.UNSPECIFIED_FRAME을 INTERNAL_ERROR로 변환합니다.
-
[SPARK-40973] [SC-115132][sql]
_LEGACY_ERROR_TEMP_0055
이름을UNCLOSED_BRACKETED_COMMENT
로 변경
유지 관리 업데이트
Databricks Runtime 12.1 유지 관리 업데이트를 참조 하세요.
시스템 환경
- 운영 체제: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- 델타 레이크: 2.2.0
설치된 Python 라이브러리
라이브러리 | 버전 | 라이브러리 | 버전 | 라이브러리 | 버전 |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings (아르곤2-CFFI 바인딩) | 21.2.0 | 에이에스티토큰 | 2.0.5 |
속성들 | 21.4.0 | 백콜 (콜백) | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | 검정색 | 22.3.0 | 표백제 | 4.1.0 |
boto3 | 1.21.32 | 보토코어 | 1.24.32 | 서티피 | 2021.10.8 |
cffi | 1.15.0 | 챠데트 | 4.0.0 | 문자셋 정규화기 | 2.0.4 |
클릭 | 8.0.4 | 암호화 | 3.4.8 | 사이클러 | 0.11.0 |
사이톤 (Cython) | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
데코레이터 | 5.1.1 | defusedxml (디퓨즈드 XML) | 0.7.1 | distlib (디스트립 라이브러리) | 0.3.6 |
docstring을 Markdown으로 변환하기 | 0.11 | 진입점 | 0.4 | 실행 중 | 0.8.3 |
특징 개요 | 1.0.0 | fastjsonschema (파스트제이슨스키마) | 2.16.2 | 파일 잠금 | 3.8.2 |
폰트툴즈 (fonttools) | 4.25.0 | 아이드나 | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils (아이파이썬 젠유틸스) | 0.2.0 | ipywidgets (아이파이위젯) | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib (잡리브) | 1.1.0 | JSON 스키마 | 4.4.0 | 주피터-클라이언트 (jupyter-client) | 6.1.12 |
주피터 코어 (jupyter_core) | 4.11.2 | jupyterlab-pygments | 0.1.2 | 주피터랩 위젯 | 1.0.0 |
키위솔버 (kiwisolver) | 1.3.2 | MarkupSafe (마크업세이프) | 2.0.1 | matplotlib (매트플롯립) | 3.5.1 |
matplotlib-inline (매트플롯립-인라인) | 0.1.2 | 맥케이브 | 0.7.0 | 미스튠 (Mistune) | 0.8.4 |
mypy-extensions (마이파이-익스텐션) | 0.4.3 | nb클라이언트 | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio (파이썬 비동기 I/O 라이브러리) | 1.5.5 | nodeenv | 1.7.0 |
노트북 | 6.4.8 | numpy (파이썬의 수치 계산용 라이브러리) | 1.21.5 | 패키징 | 21.3 |
팬더 | 1.4.2 | pandocfilters | 1.5.0 | 파르소 | 0.8.3 |
패스스펙 (pathspec) | 0.9.0 | 희생양 | 0.5.2 | pexpect (피엑스펙트) | 4.8.0 |
픽클쉐어 | 0.7.5 | 베개 | 9.0.1 | 파이썬 패키지 설치 도구 pip | 21.2.4 |
플랫폼 디렉토리 | 2.6.0 | plotly (데이터 시각화 라이브러리) | 5.6.0 | 플러기 | 1.0.0 |
prometheus-client | 0.13.1 | 프로프트-툴킷 | 3.0.20 | 프로토콜 버퍼 (Protocol Buffers) | 3.19.4 |
psutil (시스템 및 프로세스 유틸리티용 Python 라이브러리) | 5.8.0 | psycopg2 | 2.9.3 | PtyProcess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes (파이플레이크스) | 2.5.0 | 파이그먼츠 | 2.11.2 | PyGObject | 3.36.0 |
파이썬 ODBC 라이브러리 pyodbc | 4.0.32 | pyparsing (파이썬 파싱 라이브러리) | 3.0.4 | 피라이트(Pyright) | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil (파이썬 날짜 유틸) | 2.8.2 | 파이썬-LSP-JSON-RPC | 1.0.0 |
python-lsp-server (파이썬 LSP 서버) | 1.6.0 | pytz (파이썬의 타임존 계산을 위한 라이브러리) | 2021.3 | pyzmq | 22.3.0 |
요청들 | 2.27.1 | requests-unixsocket (요청-유닉스소켓) | 0.2.0 | 밧줄 | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn (파이썬 머신러닝 라이브러리) | 1.0.2 | scipy (사이파이) | 1.7.3 |
바다에서 태어난 | 0.11.2 | Send2Trash | 1.8.0 | setuptools (셋업툴즈) | 61.2.0 |
6 | 1.16.0 | 수프 체 | 2.3.1 | ssh-import-id 명령어 | 5.10 |
스택 데이터 | 0.2.0 | statsmodels (파이썬 통계 모형 라이브러리) | 0.13.2 | 끈기 | 8.0.1 |
완료 | 0.13.1 | 테스트 경로 | 0.5.0 | threadpoolctl | 2.2.0 |
토큰화-RT | 4.2.1 | tomli | 1.2.2 | 토네이도 | 6.1 |
트레잇렛츠 | 5.1.1 | 타이핑_익스텐션 | 4.1.1 | ujson (파이썬에서 JSON 직렬화를 위한 라이브러리) | 5.1.0 |
자동업데이트 | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth(문자의 너비를 계산하는 함수) | 0.2.5 | 웹 인코딩 | 0.5.1 | 왓더패치 | 1.0.3 |
바퀴 | 0.37.0 | widgetsnbextension (위젯 확장 프로그램) | 3.6.1 | yapf | 0.31.0 |
설치된 R 라이브러리
R 라이브러리는 Microsoft CRAN 스냅샷(2022-11-11)에서 설치됩니다.
라이브러리 | 버전 | 라이브러리 | 버전 | 라이브러리 | 버전 |
---|---|---|---|---|---|
화살표 | 10.0.0 | askpass (비밀번호 입력 요청) | 1.1 | 엔코딩된 기술 자료의 맥락에서, 이는 프로그램 함수명이기 때문에 한국어로 번역하지 않습니다. "assertthat"는 그대로 두거나 필요하면 관련 문맥으로 간단히 설명할 수 있습니다. | 0.2.1 |
백포트 | 1.4.1 | 기초 | 4.2.2 | base64enc | 0.1-3 |
비트 | 4.0.4 | 64비트 | 4.0.5 | 덩어리 | 1.2.3 |
부츠 | 1.3-28 | 양조하다 | 1.0-8 | 활기 | 1.1.3 |
빗자루 | 1.0.1 | bslib | 0.4.1 | 캐시미어 | 1.0.6 |
콜러 | 3.7.3 | 캐럿 | 6.0-93 | 셀레인저 | 1.1.0 |
크론 | 2.3-58 | 수업 | 7.3-20 | 커맨드 라인 인터페이스 (CLI) | 3.4.1 |
클리퍼 | 0.8.0 | 시계 | 0.6.1 | 클러스터 | 2.1.4 |
코드 도구 | 0.2-18 | 색 공간 | 2.0-3 | 코먼마크 | 1.8.1 |
컴파일러 | 4.2.2 | 설정 | 0.3.1 | cpp11 | 0.4.3 |
크레용 | 1.5.2 | 자격증명서 | 1.3.2 | 컬 | 4.3.3 |
data.table (데이터 테이블) | 1.14.4 | 데이터 세트 | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | 설명 | 1.4.2 | 개발자 도구 | 2.4.5 |
디포브젝트 | 0.3.5 | 요약 | 0.6.30 | 하향 조명 | 0.4.2 |
dplyr (데이터 조작을 위한 R 패키지) | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
줄임표 | 0.3.2 | 평가하다 | 0.18 | 팬시 | 1.0.3 |
색상 | 2.1.1 | 빠른 맵 | 1.1.0 | 폰트어썸 (fontawesome) | 0.4.0 |
포켓(Forcats) | 0.5.2 | 포이치 (foreach) | 1.5.2 | 외국의 | 0.8-82 |
제작하다 | 0.2.0 | fs | 1.5.2 | 미래 | 1.29.0 |
퓨처.어플라이 | 1.10.0 | 가글 | 1.2.1 | 제네릭 | 0.1.3 |
거트 | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet (통계 및 기계 학습 소프트웨어 패키지) | 4.1-4 | 글로벌 변수 | 0.16.1 |
풀 | 1.6.2 | 구글 드라이브 | 2.0.0 | 구글시트4 | 1.0.1 |
고워 (Gower) | 1.0.0 | 그래픽 | 4.2.2 | grDevices | 4.2.2 |
그리드 | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
지테이블 | 0.3.1 | 안전모 | 1.2.0 | 안식처 | 2.5.1 |
하이어 | 0.9 | 에이치엠에스 (HMS) | 1.1.2 | HTML 도구 | 0.5.3 |
HTML 위젯 | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
아이디 | 1.0.1 | 이것 | 0.3.1 | 아이프레드 | 0.9-13 |
아이소밴드 | 0.2.6 | 반복자 | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | 니터 | 1.40 |
라벨링 | 0.4.2 | 나중에 | 1.3.0 | 격자 | 0.20-45 |
용암 | 1.7.0 | 수명 주기 | 1.0.3 | 리스트엔브 | 0.8.0 |
루브리데이트 | 1.9.0 | magrittr | 2.0.3 | 마크다운 | 1.3 |
질량 | 7.3-58 | 행렬 | 1.5-1 | 메모이제이션 | 2.0.1 |
메서드 | 4.2.2 | mgcv | 1.8-41 | 마임 | 0.12 |
미니 사용자 인터페이스 (miniUI) | 0.1.1.1 | ModelMetrics | 1.2.2.2 | 모델러 | 0.1.9 |
먼셀 (Munsell) | 0.5.0 | nlme | 3.1-160 | 엔넷 | 7.3-18 |
numDeriv (넘데리브) | 2016년 8월부터 1월 1일까지 | 오픈SSL (OpenSSL은 암호화 라이브러리입니다) | 2.0.4 | 평행 | 4.2.2 |
병렬로 | 1.32.1 | 기둥 | 1.8.1 | pkgbuild(팩키지 빌드) | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
플로거 | 0.2.0 | plyr (플레이어) | 1.8.7 | 칭찬 | 1.0.0 |
프리티유닛 | 1.1.1 | pROC 패키지 | 1.18.0 | 프로세스엑스 | 3.8.0 |
프로드림 (prodlim) | 2019.11.13 | profvis | 0.3.7 | 진행률 | 1.2.2 |
프로그레스알 | 0.11.0 | 약속들 | 1.2.0.1 | 프로토 | 1.0.0 |
프록시 | 0.4-27 | Ps | 1.7.2 | 고양이가 그르렁거리다 | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | 라그 | 1.2.4 |
랜덤포레스트 | 4.7-1.1 | rappdirs (랩디르) | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
리더(Reader) | 2.1.3 | readxl (엑셀 파일 읽기 기능) | 1.4.1 | 요리법 | 1.0.3 |
재경기 | 1.0.1 | 재경기 2 | 2.1.2 | 리모컨 | 2.4.2 |
재현 가능한 예시 | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
r마크다운 | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart (의사결정트리 구축을 위한 R 패키지) | 4.1.19 | rprojroot | 2.0.3 | Rserve (R서브) | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | 알버전즈 | 2.1.2 |
rvest (웹 스크래핑을 위한 R 패키지) | 1.0.3 | sass | 0.4.2 | 저울 | 1.2.1 |
셀렉터 | 0.4-2 | 세션 정보 | 1.2.2 | 모양 | 1.4.6 |
반짝이는 | 1.7.3 | 소스툴스 (sourcetools) | 0.1.7 | sparklyr (스파클리알) | 1.7.8 |
SparkR | 3.3.1 | 공간의 | 7.3-11 | 스플라인 | 4.2.2 |
sqldf (SQL 데이터프레임 패키지) | 0.4–11 | 스퀘어엠 | 2021년 1월 | 통계 | 4.2.2 |
통계4 | 4.2.2 | 문자열 처리 소프트웨어 "stringi" | 1.7.8 | stringr | 1.4.1 |
생존 | 3.4-0 | 시스템 | 3.4.1 | 시스템 글꼴 | 1.0.4 |
티클티케이 (tcltk) | 4.2.2 | testthat (테스트댓) | 3.1.5 | 텍스트 조형 | 0.3.6 |
tibble (티블) | 3.1.8 | tidyr | 1.2.1 | tidyselect (티디셀렉트) | 1.2.0 |
tidyverse (타이디버스) | 1.3.2 | 시간 변경 | 0.1.1 | 시간과 날짜 | 4021.106 |
tinytex | 0.42 | 도구 | 4.2.2 | tzdb | 0.3.0 |
URL확인기 | 1.0.1 | 사용하세요 | 2.1.6 | utf8 | 1.2.2 |
유틸리티 | 4.2.2 | UUID (범용 고유 식별자) | 1.1-0 | vctrs | 0.5.0 |
비리디스라이트 | 0.4.1 | 부르릉 | 1.6.0 | 왈도 | 0.4.0 |
수염 | 0.4 | 위드알 | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | 엑스오픈 | 1.0.0 | 엑스테이블 | 1.8-4 |
YAML (야믈) | 2.3.6 | ZIP 파일 | 2.2.2 |
설치된 Java 및 Scala 라이브러리(Scala 2.12 클러스터 버전)
그룹 아이디 | 아티팩트 ID | 버전 |
---|---|---|
antlr (구문 분석 도구) | antlr (구문 분석 도구) | 2.7.7 |
com.amazonaws | 아마존 키네시스 클라이언트 (amazon-kinesis-client) | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling (AWS 자바 SDK 자동 확장) | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront (AWS Java SDK 클라우드프론트) | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm (AWS 자바 SDK 클라우드HSM) | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK 클라우드서치) | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy (AWS Java SDK 코드디플로이) | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity (AWS 자바 SDK - Cognito 아이덴티티) | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | AWS Java SDK 구성 | 1.12.189 |
com.amazonaws | aws-java-sdk-core (AWS 자바 SDK 코어) | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline (데이터 파이프라인을 위한 AWS Java SDK) | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect (AWS Direct Connect을 위한 Java SDK) | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs (AWS Java 소프트웨어 개발 키트 - ECS) | 1.12.189 |
com.amazonaws | aws-java-sdk-efs (AWS와 EFS 관련 소프트웨어 개발 키트) | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache (AWS Java SDK 엘라스티캐시) | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk (AWS용 Java SDK - Elastic Beanstalk) | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK - 엘라스틱로드밸런싱) | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK 엘라스틱 트랜스코더) | 1.12.189 |
com.amazonaws | aws-java-sdk-emr (아우스-자바-sdk-emr) | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier (AWS Java SDK 글래시어) | 1.12.189 |
com.amazonaws | aws-java-sdk-glue (AWS 자바 SDK 글루) | 1.12.189 |
com.amazonaws | AWS 자바 SDK IAM | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport (AWS Java SDK 내보내기 기능) | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms (AWS 자바 SDK KMS) | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs (AWS 자바 SDK 로그) | 1.12.189 |
com.amazonaws | AWS-Java-SDK-머신러닝 | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds (AWS Java 개발자용 SDK - RDS) | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift (AWS 자바 SDK 레드시프트) | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | AWS Java SDK SNS (AWS의 자바 개발자 키트 - SNS) | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs (AWS Java SDK의 SQS 모듈) | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm (AWS Java SDK의 SSM 모듈) | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway (AWS Java SDK 스토리지 게이트웨이) | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | AWS-Java-SDK-지원 | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries (AWS Java SDK SWF 라이브러리) | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces (AWS Java SDK 작업 공간) | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | 스트림 | 2.9.6 |
com.databricks | Rserve (R서브) | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | 크리오-쉐이디드 | 4.0.2 |
com.esotericsoftware | 민로그 | 1.3.0 |
com.fasterxml | 클래스메이트, 친구, 동급생 | 1.3.4 |
com.fasterxml.jackson.core | 잭슨 어노테이션 (jackson-annotations) | 2.13.4 |
com.fasterxml.jackson.core | 잭슨-코어 | 2.13.4 |
com.fasterxml.jackson.core | 잭슨 데이터바인드 (jackson-databind) | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (잭슨 데이터 포맷 CBOR) | 2.13.4 |
com.fasterxml.jackson.datatype | 잭슨 데이터타입 조다 (jackson-datatype-joda) | 2.13.4 |
com.fasterxml.jackson.datatype | 잭슨 데이터 타입 JSR310 (jackson-datatype-jsr310) | 2.13.4 |
com.fasterxml.jackson.module | 잭슨 모듈 - 파라네이머 (jackson-module-paranamer) | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 (자바 스칼라 모듈) | 2.13.4 |
com.github.ben-manes.카페인 | 카페인 | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | 코어 | 1.1.2 |
com.github.fommil.netlib | 네이티브_레퍼런스-자바 | 1.1 |
com.github.fommil.netlib | 네이티브_참조-자바-네이티브스 | 1.1 |
com.github.fommil.netlib | 네이티브_시스템-자바 | 1.1 |
com.github.fommil.netlib | 네이티브_시스템-자바-네이티브스 | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson (JSON 처리를 위한 자바 라이브러리) | 2.8.6 |
com.google.crypto.tink | 팅크 | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | 구아바 | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | 프로파일러 | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.릴리스 |
com.lihaoyi | 소스코드_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk (애저 데이터 레이크 저장소 SDK) | 2.3.9 |
com.ning | compress-lzf (압축 알고리즘 LZF) | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | 파라네이머 | 2.8 |
com.trueaccord.lenses | 렌즈_2.12 | 0.4.12 |
com.twitter (도메인 이름) | chill-java (칠자바) | 0.10.0 |
com.twitter (도메인 이름) | chill_2.12 | 0.10.0 |
com.twitter (도메인 이름) | util-app_2.12 | 7.1.0 |
com.twitter (도메인 이름) | util-core_2.12 | 7.1.0 |
com.twitter (도메인 이름) | util-function_2.12 | 7.1.0 |
com.twitter (도메인 이름) | util-jvm_2.12 | 7.1.0 |
com.twitter (도메인 이름) | util-lint_2.12 | 7.1.0 |
com.twitter (도메인 이름) | util-registry_2.12 | 7.1.0 |
com.twitter (도메인 이름) | util-stats_2.12 | 7.1.0 |
com.typesafe | 설정 | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers (유니보시티-파서스) | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec (커먼즈 코덱) | commons-codec (커먼즈 코덱) | 1.15 |
코먼스-컬렉션즈 | 코먼스-컬렉션즈 | 3.2.2 |
커먼즈-DBCP | 커먼즈-DBCP | 1.4 |
코먼스-파일업로드 | 코먼스-파일업로드 | 1.3.3 |
커먼즈-HTTP 클라이언트 | 커먼즈-HTTP 클라이언트 | 3.1 |
commons-io | commons-io | 2.11.0 |
커먼즈-랭 | 커먼즈-랭 | 2.6 |
Commons-로깅 | Commons-로깅 | 1.1.3 |
commons-pool (커먼즈-풀) | commons-pool (커먼즈-풀) | 1.5.4 |
dev.ludovic.netlib | 아르팩 (ARPACK) | 2.2.1 |
dev.ludovic.netlib | 블라스 | 2.2.1 |
dev.ludovic.netlib | 래팩 (LAPACK) | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | 에어 컴프레서 | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | 측정-코어 | 4.1.1 |
io.dropwizard.metrics | 메트릭스-그래파이트 (metrics-graphite) | 4.1.1 |
io.dropwizard.metrics | 측정 지표-건강 점검 | 4.1.1 |
io.dropwizard.metrics | 메트릭스-젯티9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx (메트릭스-JMX) | 4.1.1 |
io.dropwizard.metrics | 메트릭스-JSON | 4.1.1 |
io.dropwizard.metrics | metrics-jvm (메트릭스-JVM) | 4.1.1 |
io.dropwizard.metrics | 메트릭스 서블릿 | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | 네티-버퍼 (Netty-Buffer) | 4.1.74.Final |
io.netty | netty-codec (넷티 코덱) | 4.1.74.Final |
io.netty | 넷티-커먼 | 4.1.74.Final |
io.netty | 네티 핸들러 | 4.1.74.Final |
io.netty | 네티-리졸버 | 4.1.74.Final |
io.netty | netty-tcnative-클래스 | 2.0.48.Final |
io.netty | 넷티-트랜스포트 | 4.1.74.Final |
io.netty | netty-transport-classes-epoll (넷티 트랜스포트 클래스 에폴) | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 (리눅스용 소프트웨어 패키지 이름) | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | 네티-트랜스포트-네이티브-유닉스-커먼 (netty-transport-native-unix-common) | 4.1.74.Final |
io.prometheus | 심플클라이언트 | 0.7.0 |
io.prometheus | 심플클라이언트_커먼 | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | 심플클라이언트_푸시게이트웨이 | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | 수집기 | 0.12.0 |
자카르타.annotation | 자카르타 애노테이션-API (jakarta.annotation-api) | 1.3.5 |
jakarta.servlet | jakarta.servlet-api (자카르타 서블릿 API) | 4.0.3 |
jakarta.validation | jakarta.validation-api (자카르타 검증 API) | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | 활성화 | 1.1.1 |
javax.el | javax.el-api (자바 API) | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta (자바 트랜잭션 API) | 1.1 |
javax.transaction | 트랜잭션 API | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
자볼루션 | 자볼루션 | 5.5.1 |
제이라인 | 제이라인 | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna (넷.자바.데브.제이엔에이) | 제이엔에이 | 5.8.0 |
net.razorvine | 피클 | 1.2 |
net.sf.jpam | 제이팜 | 1.1 |
net.sf.opencsv | opencsv (오픈CSV 라이브러리) | 2.3 |
net.sf.supercsv | 슈퍼-CSV | 2.2.0 |
네트.스노우플레이크 | 스노우플레이크-데이터수집-SDK | 0.9.6 |
네트.스노우플레이크 | snowflake-jdbc (스노우플레이크 JDBC) | 3.13.22 |
net.sourceforge.f2j | arpack_전체_결합 | 0.1 |
org.acplt.remotetea | 리모트티-온씨알피씨 | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | ANTLR 런타임 | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | 문자열 템플릿 | 3.2.1 |
org.apache.ant | 개미 | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | 앤트-런처 | 1.9.2 |
org.apache.arrow | 화살표 형식 | 7.0.0 |
org.apache.arrow | 화살표 메모리 코어 (arrow-memory-core) | 7.0.0 |
org.apache.arrow | 애로우-메모리-네티 | 7.0.0 |
org.apache.arrow | 화살표 벡터 | 7.0.0 |
org.apache.avro | Avro | 1.11.0 |
org.apache.avro | avro-ipc (아브로 IPC) | 1.11.0 |
org.apache.avro | avro-mapred (아브로-맵레드) | 1.11.0 |
org.apache.commons (오픈 소스 자바 라이브러리) | commons-collections4 (공용 컬렉션4) | 4.4 |
org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-컴프레스 | 1.21 |
org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-크립토 | 1.1.0 |
org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-랭3 (commons-lang3) | 3.12.0 |
org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-매쓰3 | 3.6.1 |
org.apache.commons (오픈 소스 자바 라이브러리) | commons-text (커먼즈 텍스트) | 1.10.0 |
org.apache.curator | 큐레이터-클라이언트 | 2.13.0 |
org.apache.curator | 현업 사례 | 2.13.0 |
org.apache.curator | 큐레이터의 레시피 | 2.13.0 |
org.apache.derby | 더비 | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api (하둡 클라이언트 API) | 3.3.4-databricks |
org.apache.hadoop | 하둡 클라이언트 런타임 | 3.3.4 |
org.apache.hive | hive-beeline (하이브-비라인) | 2.3.9 |
org.apache.hive | hive-CLI | 2.3.9 |
org.apache.hive | hive-jdbc (하이브 JDBC) | 2.3.9 |
org.apache.hive | hive-llap-client (하이브 LLAP 클라이언트) | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | 하이브-세르데 | 2.3.9 |
org.apache.hive | 하이브-쉼 | 2.3.9 |
org.apache.hive | 하이브 스토리지 API (hive-storage-api) | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | 하이브-쉼스-커먼 | 2.3.9 |
org.apache.hive.shims | 하이브-심스-스케줄러 | 2.3.9 |
org.apache.httpcomponents | HTTP 클라이언트 (httpclient) | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | 아이비 | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core (로그4j-코어) | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | 메소스-쉐이디드-프로토버프 (mesos-shaded-protobuf) | 1.4.0 |
org.apache.orc | 오크-코어 | 1.76 |
org.apache.orc | orc-mapreduce (오크-맵리듀스) | 1.76 |
org.apache.orc | orc-shims (오크-심스) | 1.76 |
org.apache.parquet | 파케-열 | 1.12.3-databricks-0002 |
org.apache.parquet | 파케-커먼 (parquet-common) | 1.12.3-databricks-0002 |
org.apache.parquet | 파케-인코딩 | 1.12.3-databricks-0002 |
org.apache.parquet | 파켓 형식 구조 | 1.12.3-databricks-0002 |
org.apache.parquet | 파켓-하둡 (parquet-hadoop) | 1.12.3-databricks-0002 |
org.apache.parquet | 파케-잭슨 | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9 음영 처리 | 4.20 |
org.apache.yetus | 청중 주석 | 0.13.0 |
org.apache.zookeeper | 동물원 사육사 | 3.6.2 |
org.apache.zookeeper | 동물원 관리자-쥬트 | 3.6.2 |
org.checkerframework | 체커-퀄 | 3.5.0 |
org.codehaus.jackson | jackson-core-asl (자바 라이브러리) | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl (잭슨-매퍼-ASL) | 1.9.13 |
org.codehaus.janino | 커먼스 컴파일러 | 3.0.16 |
org.codehaus.janino | 자니노 | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | 데이터뉴클리어스-코어 | 4.1.17 |
org.datanucleus | datanucleus-rdbms (데이터누클리어스-알디비엠에스) | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client (제티 클라이언트) | 9.4.46.v20220331 |
org.eclipse.jetty | 제티-컨티뉴에이션 | 9.4.46.v20220331 |
org.eclipse.jetty | 제티-HTTP (Jetty-HTTP) | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi (제티-JNDI) | 9.4.46.v20220331 |
org.eclipse.jetty | 제티-플러스 | 9.4.46.v20220331 |
org.eclipse.jetty | 제티 프록시 | 9.4.46.v20220331 |
org.eclipse.jetty | 제티-시큐리티 (jetty-security) | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server (제티 서버) | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | 제티 서블릿(jetty-servlets) | 9.4.46.v20220331 |
org.eclipse.jetty | 제티 유틸리티 | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | 제티 웹앱 (jetty-webapp) | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | 웹소켓 API | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | 웹소켓 클라이언트 | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | 웹소켓-커먼 | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | 웹소켓 서버 | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | 웹소켓-서블릿 (websocket-servlet) | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2 위치 탐색기 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | OSGi-리소스-로케이터 | 1.0.3 |
org.glassfish.hk2.external | aopalliance-재패키지 | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | Jersey 컨테이너 서블릿 (jersey-container-servlet) | 2.36 |
org.glassfish.jersey.containers | 저지-컨테이너-서블릿-코어 | 2.36 |
org.glassfish.jersey.core | 제르시 클라이언트 | 2.36 |
org.glassfish.jersey.core | 저지-커먼 | 2.36 |
org.glassfish.jersey.core | 저지 서버 (jersey-server) | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | 하이버네이트 검증기 (hibernate-validator) | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging(로그 관리 시스템) | 3.3.2.최종 |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | 주석 달기 | 17.0.0 |
org.joda | joda-convert (조다 변환 라이브러리) | 1.7 |
org.jodd | jodd-core (조드 코어 라이브러리) | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | MariaDB 자바 클라이언트 | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | 옵제네시스 (objenesis) | 2.5.1 |
org.postgresql | PostgreSQL (포스트그레에스큐엘) | 42.3.3 |
org.roaringbitmap | 로어링비트맵 (RoaringBitmap) | 0.9.25 |
org.roaringbitmap | 깔판 | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | 테스트 인터페이스 | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | 미사용 | 1.0.0 |
org.threeten | threeten-extra (쓰리텐-엑스트라) | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | 스파이어-유틸_2.12 | 0.17.0 |
org.typelevel | 스파이어_2.12 (spire_2.12) | 0.17.0 |
org.wildfly.openssl | 와일드플라이-OpenSSL | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | 스네이크야AML (snakeyaml) | 1.24 |
금 | 금 | 2.0.8 |
pl.edu.icm | 제이 라지 어레이스 | 1.5 |
software.amazon.ion | ion-java (아이온-자바) | 1.0.2 |
스택스 | stax-api | 1.0.1 |