Compartilhar via


Limitações de computação sem servidor

Este artigo explica as limitações atuais da computação sem servidor para notebooks e trabalhos. Começando com uma visão geral das considerações mais importantes, seguida por uma lista de referência abrangente de limitações.

Visão geral de limitações

Antes de criar novas cargas de trabalho ou migrar cargas de trabalho para a computação sem servidor, primeiro considere as seguintes limitações:

  • Python e SQL são os únicos idiomas com suporte.

  • Há suporte apenas para APIs de conexão do Spark. Não há suporte para as APIs RDD do Spark.

  • Não há suporte para bibliotecas JAR. Para obter soluções alternativas, consulte Melhores práticas para computação sem servidor.

  • A computação sem servidor tem acesso irrestrito para todos os usuários do workspace.

  • Não há suporte para marcas de bloco de anotações.

  • Para streaming, somente a lógica incremental do lote pode ser usada. Não há suporte para intervalos de gatilho baseados em tempo ou padrão. Consulte Limitações de streaming.

Lista de referência de limitações

As seções a seguir listam as limitações atuais da computação sem servidor.

A computação sem servidor baseia-se na arquitetura de computação compartilhada. As limitações mais relevantes herdadas da computação compartilhada são listadas abaixo, juntamente com limitações adicionais específicas sem servidor. Para obter uma lista completa das limitações da computação compartilhada, consulte Limitações do modo de acesso da computação para o Catálogo do Unity.

Limitações gerais

  • Não há suporte para Scala e R.

  • O SQL ANSI é o padrão ao escrever SQL. Opt-out do modo ANSI definindo spark.sql.ansi.enabled como false.

  • Não há suporte para as APIs RDD do Spark.

  • Contexto do Spark (sc), spark.sparkContext e sqlContext não possuem suporte.

  • Não há suporte para os Serviços de Contêiner do Databricks.

  • Não há suporte para o terminal Web.

  • Nenhuma consulta pode ser executada por mais de 48 horas.

  • Você deve usar o Catálogo do Unity para se conectar a fontes de dados externas. Use locais externos para acessar o armazenamento em nuvem.

  • O suporte para fontes de dados é limitado a AVRO, BINARYFILE, CSV, DELTA, JSON, KAFKA, ORC, PARQUET, ORC, TEXT e XML.

  • As UDFs (funções definidas pelo usuário) não podem acessar a Internet.

  • As linhas individuais não devem exceder o tamanho máximo de 128 MB.

  • A interface do usuário do Spark não está disponível. Em vez disso, use o perfil de consulta para exibir informações sobre suas consultas do Spark. Confira Perfil de consulta.

  • Os clientes Python que usam pontos de extremidade do Databricks podem encontrar erros de verificação SSL, como "CERTIFICATE_VERIFY_FAILED". Para contornar esses erros, configure o cliente para confiar no arquivo de AC localizado em /etc/ssl/certs/ca-certificates.crt. Por exemplo, execute o seguinte comando no início de um notebook ou trabalho sem servidor: import os; os.environ['SSL_CERT_FILE'] = '/etc/ssl/certs/ca-certificates.crt'

  • Não há suporte para solicitações de API entre workspaces.

Limitações de streaming

Limitações de aprendizado de máquina

Limitações de notebooks

  • Os notebooks têm acesso à memória de 8 GB que não pode ser configurada.
  • Bibliotecas com escopo de notebook não são armazenadas em cache em sessões de desenvolvimento.
  • Não há suporte para o compartilhamento de tabelas temporárias e exibições ao compartilhar um notebook entre os usuários.
  • Não há suporte para Preenchimento Automático e Gerenciador de Variáveis para dataframes em notebooks.

Limitações de fluxo de trabalho

  • O tamanho do driver para a computação sem servidor para trabalhos está fixo no momento e não pode ser alterado.
  • Os logs de tarefas não são isolados por execução de tarefa. Os logs conterão a saída de várias tarefas.
  • Não há suporte para bibliotecas de tarefas para tarefas de notebook. Em vez disso, use bibliotecas com escopo de notebook. Confira as bibliotecas Python no escopo do notebook.

Limitações específicas da computação

Não há suporte para os seguintes recursos específicos de computação:

  • Políticas de computação
  • Scripts de inicialização com escopo de computação
  • Bibliotecas com escopo de computação, incluindo fontes de dados personalizadas e extensões do Spark. Em vez disso, use bibliotecas com escopo de notebook.
  • Configurações de acesso a dados em nível de computação, incluindo perfis de instância. Como consequência, acessar tabelas e arquivos via HMS em caminhos na nuvem, ou com montagens do DBFS que não possuem credenciais incorporadas, não funcionará.
  • Pools da instância
  • logs de eventos de computação
  • Configurações de computação do Apache Spark e variáveis de ambiente