Teilen über


UnicodeEncoding.GetByteCount Methode

Definition

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen erzeugt wird.

Überlädt

GetByteCount(String)

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen in der angegebenen Zeichenfolge erzeugt werden.

GetByteCount(Char*, Int32)

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen ab dem angegebenen Zeichenzeiger erzeugt werden.

GetByteCount(Char[], Int32, Int32)

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen aus dem angegebenen Zeichenarray erzeugt werden.

GetByteCount(String)

Quelle:
UnicodeEncoding.cs
Quelle:
UnicodeEncoding.cs
Quelle:
UnicodeEncoding.cs

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen in der angegebenen Zeichenfolge erzeugt werden.

public:
 override int GetByteCount(System::String ^ s);
public override int GetByteCount (string s);
override this.GetByteCount : string -> int
Public Overrides Function GetByteCount (s As String) As Integer

Parameter

s
String

Die Zeichenfolge, die die Menge der angegebenen Zeichen enthält.

Gibt zurück

Die Anzahl der Bytes, die beim Codieren der angegebenen Zeichen erzeugt werden.

Ausnahmen

s ist null.

Die sich ergebende Anzahl von Bytes ist höher als die maximale Anzahl, die als ganze Zahl zurückgegeben werden kann.

Die Fehlererkennung ist aktiviert, und s enthält eine ungültige Folge von Zeichen.

Es ist ein Fallback aufgetreten (weitere Informationen finden Sie unter Zeichencodierung in .NET).

- und -

Für EncoderFallback ist EncoderExceptionFallback festgelegt.

Beispiele

Im folgenden Beispiel werden die GetMaxByteCount Methoden und GetByteCount(String) aufgerufen, um die maximale und tatsächliche Anzahl von Bytes zu berechnen, die zum Codieren einer Zeichenfolge erforderlich sind. Außerdem wird die tatsächliche Anzahl von Bytes angezeigt, die zum Speichern eines Bytedatenstroms mit einer Bytereihenfolgenmarkierung erforderlich sind.

using System;
using System.Text;

class UTF8EncodingExample {
    public static void Main() {
        String chars = "UTF-16 Encoding Example";
        Encoding unicode = Encoding.Unicode;

        Console.WriteLine("Bytes needed to encode '{0}':", chars);
        Console.WriteLine("   Maximum:         {0}",
                          unicode.GetMaxByteCount(chars.Length));
        Console.WriteLine("   Actual:          {0}",
                          unicode.GetByteCount(chars));
        Console.WriteLine("   Actual with BOM: {0}",
                          unicode.GetByteCount(chars) + unicode.GetPreamble().Length);
    }
}
// The example displays the following output:
//       Bytes needed to encode 'UTF-16 Encoding Example':
//          Maximum:         48
//          Actual:          46
//          Actual with BOM: 48
Imports System.Text

Module Example
    Public Sub Main()
        Dim chars As String = "UTF-16 Encoding Example"
        Dim unicode As Encoding = Encoding.Unicode

        Console.WriteLine("Bytes needed to encode '{0}':", chars)
        Console.WriteLine("   Maximum:         {0}",
                          unicode.GetMaxByteCount(chars.Length))
        Console.WriteLine("   Actual:          {0}",
                          unicode.GetByteCount(chars))
        Console.WriteLine("   Actual with BOM: {0}",
                          unicode.GetByteCount(chars) + unicode.GetPreamble().Length)
    End Sub
End Module
' The example displays the following output:
'       Bytes needed to encode 'UTF-16 Encoding Example':
'          Maximum:         48
'          Actual:          46
'          Actual with BOM: 48

Hinweise

Um die genaue Arraygröße zu berechnen, die von GetBytes zum Speichern der resultierenden Bytes erforderlich ist, rufen Sie die GetByteCount -Methode auf. Um die maximale Arraygröße zu berechnen, rufen Sie die -Methode auf GetMaxByteCount . Die GetByteCount -Methode weist im Allgemeinen weniger Arbeitsspeicher zu, während die GetMaxByteCount Methode im Allgemeinen schneller ausgeführt wird.

Bei der Fehlererkennung bewirkt eine ungültige Sequenz, dass diese Methode einen ArgumentExceptionauslöst. Ohne Fehlererkennung werden ungültige Sequenzen ignoriert, und es wird keine Ausnahme ausgelöst.

Wichtig

Um sicherzustellen, dass die codierten Bytes ordnungsgemäß decodiert werden, wenn sie als Datei oder als Stream gespeichert werden, können Sie einem Datenstrom codierter Bytes eine Präambel voran stellen. Das Einfügen der Präambel am Anfang eines Bytedatenstroms (z. B. am Anfang einer Reihe von Bytes, die in eine Datei geschrieben werden sollen) liegt in der Verantwortung des Entwicklers, und die Anzahl der Bytes in der Präambel wird nicht im von der GetByteCount(String) -Methode zurückgegebenen Wert widergespiegelt.

Weitere Informationen

Gilt für:

GetByteCount(Char*, Int32)

Quelle:
UnicodeEncoding.cs
Quelle:
UnicodeEncoding.cs
Quelle:
UnicodeEncoding.cs

Wichtig

Diese API ist nicht CLS-kompatibel.

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen ab dem angegebenen Zeichenzeiger erzeugt werden.

public:
 override int GetByteCount(char* chars, int count);
[System.CLSCompliant(false)]
public override int GetByteCount (char* chars, int count);
[System.CLSCompliant(false)]
[System.Security.SecurityCritical]
public override int GetByteCount (char* chars, int count);
[System.CLSCompliant(false)]
[System.Runtime.InteropServices.ComVisible(false)]
public override int GetByteCount (char* chars, int count);
[System.CLSCompliant(false)]
[System.Security.SecurityCritical]
[System.Runtime.InteropServices.ComVisible(false)]
public override int GetByteCount (char* chars, int count);
[<System.CLSCompliant(false)>]
override this.GetByteCount : nativeptr<char> * int -> int
[<System.CLSCompliant(false)>]
[<System.Security.SecurityCritical>]
override this.GetByteCount : nativeptr<char> * int -> int
[<System.CLSCompliant(false)>]
[<System.Runtime.InteropServices.ComVisible(false)>]
override this.GetByteCount : nativeptr<char> * int -> int
[<System.CLSCompliant(false)>]
[<System.Security.SecurityCritical>]
[<System.Runtime.InteropServices.ComVisible(false)>]
override this.GetByteCount : nativeptr<char> * int -> int

Parameter

chars
Char*

Ein Zeiger auf das erste zu codierende Zeichen.

count
Int32

Die Anzahl der zu codierenden Zeichen.

Gibt zurück

Die Anzahl der Bytes, die beim Codieren der angegebenen Zeichen erzeugt werden.

Attribute

Ausnahmen

chars ist null.

count ist kleiner als Null.

- oder -

Die sich ergebende Anzahl von Bytes ist höher als die maximale Anzahl, die als ganze Zahl zurückgegeben werden kann.

Die Fehlererkennung ist aktiviert, und chars enthält eine ungültige Zeichenfolge.

Es ist ein Fallback aufgetreten (weitere Informationen finden Sie unter Zeichencodierung in .NET).

- und -

Für EncoderFallback ist EncoderExceptionFallback festgelegt.

Hinweise

Um die genaue Arraygröße zu berechnen, die GetBytes zum Speichern der resultierenden Bytes erforderlich ist, rufen Sie die GetByteCount -Methode auf. Um die maximale Arraygröße zu berechnen, rufen Sie die -Methode auf GetMaxByteCount . Die GetByteCount -Methode weist im Allgemeinen weniger Arbeitsspeicher zu, während die GetMaxByteCount Methode im Allgemeinen schneller ausgeführt wird.

Bei der Fehlererkennung bewirkt eine ungültige Sequenz, dass diese Methode einen ArgumentExceptionauslöst. Ohne Fehlererkennung werden ungültige Sequenzen ignoriert, und es wird keine Ausnahme ausgelöst.

Wichtig

Um sicherzustellen, dass die codierten Bytes ordnungsgemäß decodiert werden, wenn sie als Datei oder als Stream gespeichert werden, können Sie einem Datenstrom codierter Bytes eine Präambel voran stellen. Das Einfügen der Präambel am Anfang eines Bytedatenstroms (z. B. am Anfang einer Reihe von Bytes, die in eine Datei geschrieben werden sollen) liegt in der Verantwortung des Entwicklers, und die Anzahl der Bytes in der Präambel wird nicht im von der GetByteCount -Methode zurückgegebenen Wert widergespiegelt.

Weitere Informationen

Gilt für:

GetByteCount(Char[], Int32, Int32)

Quelle:
UnicodeEncoding.cs
Quelle:
UnicodeEncoding.cs
Quelle:
UnicodeEncoding.cs

Berechnet die Anzahl der Bytes, die beim Codieren der Zeichen aus dem angegebenen Zeichenarray erzeugt werden.

public:
 override int GetByteCount(cli::array <char> ^ chars, int index, int count);
public override int GetByteCount (char[] chars, int index, int count);
override this.GetByteCount : char[] * int * int -> int
Public Overrides Function GetByteCount (chars As Char(), index As Integer, count As Integer) As Integer

Parameter

chars
Char[]

Das Zeichenarray, das die zu codierenden Zeichen enthält.

index
Int32

Der Index des ersten zu codierenden Zeichens.

count
Int32

Die Anzahl der zu codierenden Zeichen.

Gibt zurück

Die Anzahl der Bytes, die beim Codieren der angegebenen Zeichen erzeugt werden.

Ausnahmen

chars ist null(Nothing).

index oder count ist kleiner als 0.

- oder -

index und count geben keinen gültigen Bereich in charsan.

- oder -

Die sich ergebende Anzahl von Bytes ist höher als die maximale Anzahl, die als ganze Zahl zurückgegeben werden kann.

Die Fehlererkennung ist aktiviert, und chars enthält eine ungültige Folge von Zeichen.

Es ist ein Fallback aufgetreten (weitere Informationen finden Sie unter Zeichencodierung in .NET).

- und -

Für EncoderFallback ist EncoderExceptionFallback festgelegt.

Beispiele

Im folgenden Beispiel wird ein Array mit lateinischen Groß- und Kleinbuchstaben aufgefüllt und die GetByteCount(Char[], Int32, Int32) -Methode aufgerufen, um die Anzahl von Bytes zu bestimmen, die zum Codieren der lateinischen Kleinbuchstaben erforderlich sind. Anschließend werden diese Informationen zusammen mit der Gesamtzahl der Bytes angezeigt, die benötigt werden, wenn eine Bytereihenfolgenmarkierung hinzugefügt wird. Sie vergleicht diese Zahl mit dem von der -Methode zurückgegebenen Wert, der GetMaxByteCount die maximale Anzahl von Bytes angibt, die zum Codieren der lateinischen Kleinbuchstaben erforderlich sind. Im folgenden Beispiel wird ein Array mit einer Kombination aus griechischen und kyrillischen Zeichen aufgefüllt und die GetByteCount(Char[], Int32, Int32) -Methode aufgerufen, um die Anzahl von Bytes zu bestimmen, die zum Codieren der kyrillischen Zeichen erforderlich sind. Anschließend werden diese Informationen zusammen mit der Gesamtzahl der Bytes angezeigt, die benötigt werden, wenn eine Bytereihenfolgenmarkierung hinzugefügt wird. Sie vergleicht diese Zahl mit dem von der -Methode zurückgegebenen Wert, der GetMaxByteCount die maximale Anzahl von Bytes angibt, die zum Codieren der kyrillischen Zeichen erforderlich sind.

using System;
using System.Text;

public class Example
{
   public static void Main()
   {
      int uppercaseStart = 0x0041;
      int uppercaseEnd = 0x005a;
      int lowercaseStart = 0x0061;
      int lowercaseEnd = 0x007a;
      // Instantiate a UTF8 encoding object with BOM support.
      Encoding unicode = Encoding.Unicode;

      // Populate array with characters.
      char[] chars = new char[lowercaseEnd - lowercaseStart + uppercaseEnd - uppercaseStart + 2];
      int index = 0;
      for (int ctr = uppercaseStart; ctr <= uppercaseEnd; ctr++) {
         chars[index] = (char)ctr;
         index++;
      }
      for (int ctr = lowercaseStart; ctr <= lowercaseEnd; ctr++) {
         chars[index] = (char)ctr;
         index++;
      }

      // Display the bytes needed for the lowercase characters.
      Console.WriteLine("Bytes needed for lowercase Latin characters:");
      Console.WriteLine("   Maximum:         {0,5:N0}",
                        unicode.GetMaxByteCount(lowercaseEnd - lowercaseStart + 1));
      Console.WriteLine("   Actual:          {0,5:N0}",
                        unicode.GetByteCount(chars, uppercaseEnd - uppercaseStart + 1,
                                          lowercaseEnd - lowercaseStart + 1));
      Console.WriteLine("   Actual with BOM: {0,5:N0}",
                        unicode.GetByteCount(chars, uppercaseEnd - uppercaseStart + 1,
                                          lowercaseEnd - lowercaseStart + 1) +
                                          unicode.GetPreamble().Length);
   }
}
// The example displays the following output:
//       Bytes needed for lowercase Latin characters:
//          Maximum:            54
//          Actual:             52
//          Actual with BOM:    54
Imports System.Text

Module Example
   Public Sub Main()
      Dim uppercaseStart As Integer = &h0041
      Dim uppercaseEnd As Integer = &h005a
      Dim lowercaseStart As Integer = &h0061
      Dim lowercaseEnd As Integer = &h007a
      ' Instantiate a UTF8 encoding object with BOM support.
      Dim unicode As Encoding = Encoding.Unicode
      
      ' Populate array with characters.
      Dim chars(lowercaseEnd - lowercaseStart + uppercaseEnd - uppercaseStart + 1) As Char
      Dim index As Integer = 0
      For ctr As Integer = uppercaseStart To uppercaseEnd
         chars(index) = ChrW(ctr)
         index += 1
      Next
      For ctr As Integer = lowercaseStart To lowercaseEnd
         chars(index) = ChrW(ctr)
         index += 1
      Next

      ' Display the bytes needed for the lowercase characters.
        Console.WriteLine("Bytes needed for lowercase Latin characters:")
        Console.WriteLine("   Maximum:         {0,5:N0}",
                          unicode.GetMaxByteCount(lowercaseEnd - lowercaseStart + 1))
        Console.WriteLine("   Actual:          {0,5:N0}",
                          unicode.GetByteCount(chars, uppercaseEnd - uppercaseStart + 1,
                                            lowercaseEnd - lowercaseStart + 1))
        Console.WriteLine("   Actual with BOM: {0,5:N0}",
                          unicode.GetByteCount(chars, uppercaseEnd - uppercaseStart + 1,
                                            lowercaseEnd - lowercaseStart + 1) +
                                            unicode.GetPreamble().Length)
   End Sub
End Module
' The example displays the following output:
'       Bytes needed for lowercase Latin characters:
'          Maximum:            54
'          Actual:             52
'          Actual with BOM:    54

Hinweise

Um die genaue Arraygröße zu berechnen, die von GetBytes zum Speichern der resultierenden Bytes erforderlich ist, verwendet GetByteCountdie Anwendung . Um die maximale Arraygröße zu berechnen, rufen Sie die -Methode auf GetMaxByteCount . Die GetByteCount -Methode weist im Allgemeinen weniger Arbeitsspeicher zu, während die GetMaxByteCount Methode im Allgemeinen schneller ausgeführt wird.

Wenn die Fehlererkennung aktiviert ist, bewirkt eine ungültige Sequenz, dass diese Methode einen ArgumentExceptionauslöst. Ohne Fehlererkennung werden ungültige Sequenzen ignoriert, und es wird keine Ausnahme ausgelöst.

Um sicherzustellen, dass die codierten Bytes ordnungsgemäß decodiert werden, wenn sie als Datei oder als Stream gespeichert werden, können Sie einem Datenstrom codierter Bytes eine Präambel voran stellen. Das Einfügen der Präambel am Anfang eines Bytedatenstroms (z. B. am Anfang einer Bytereihe, die in eine Datei geschrieben werden soll) liegt in der Verantwortung des Entwicklers, und die Anzahl der Bytes in der Präambel wird nicht im von der GetByteCount(Char[], Int32, Int32) -Methode zurückgegebenen Wert widergespiegelt.

Weitere Informationen

Gilt für: