次の方法で共有


Char から Decimal への変換

Unicode 文字を Decimal に変換します。

returnValue = Decimal.op_Implicit(value)
[C#]
public static implicit operator decimal(charvalue);
[C++]
public: static Decimal op_Implicit(__wchar_tvalue);
[JScript]
returnValue = value;

[Visual Basic] Visual Basic では、この型で定義されている型変換を使用することができます。ただし、独自に定義することはできません。

[JScript] JScript では、この型で定義されている型変換を使用することができます。ただし、独自に定義することはできません。

引数 [Visual Basic, JScript]

  • value
    Unicode 文字。

パラメータ [C#, C++]

  • value
    Unicode 文字。

戻り値

変換された Unicode 文字を表す Decimal

使用例

[Visual Basic, C#, C++] Char to Decimal 変換を使用して Char (Unicode 文字) を Decimal の数値に変換するコード例を次に示します。この変換は C# では暗黙で行われますが、Visual Basic および C++ では op_Implicit 演算子が必要です。これらの言語では、 Decimal への暗黙の変換には、他のメソッドが使用されます。

 
' Example of the op_Implicit conversion from Char to Decimal.
Imports System
Imports System.Globalization
Imports Microsoft.VisualBasic

Module DecimalFromCharDemo

    Const formatter As String = _
        "{0,6}{1,15}{2,10:X8}{3,9:X8}{4,9:X8}{5,9:X8}"
 
    ' Convert the Char argument and display the Decimal value.
    Sub DecimalFromChar( argument As Char )

        Dim decValue    As Decimal
        Dim bits( )     As Integer
          
        ' The compiler invokes a constructor in Visual Basic 
        ' unless op_Implicit is explicitly called.
        decValue = Decimal.op_Implicit( argument )

        ' Display the Decimal and its binary representation.
        bits = Decimal.GetBits( decValue )
        Console.WriteLine( formatter, argument, decValue, _
            bits( 3 ), bits( 2 ), bits( 1 ), bits( 0 ) )
    End Sub 
       
    Sub Main( )

        Console.WriteLine( _
            "This example of the op_Implicit conversion from Char " & _
            "to Decimal generates the " & vbCrLf & "following " & _
            "output. It displays the Decimal value and its " & _
            "binary representation." & vbCrLf )
        Console.WriteLine( formatter, "Char", _
            "Decimal value", "bits(3)", "bits(2)", _
            "bits(1)", "bits(0)" )
        Console.WriteLine( formatter, "----", _
            "-------------", "-------", "-------", _
            "-------", "-------" )
          
        ' Convert Char values and display the results.
        DecimalFromChar( Chr( 0 ) )
        DecimalFromChar( " "c )
        DecimalFromChar( "*"c )
        DecimalFromChar( "A"c )
        DecimalFromChar( "a"c )
        DecimalFromChar( "{"c )
        DecimalFromChar( ""c )
    End Sub 
End Module

' This example of the op_Implicit conversion from Char to Decimal generates the
' following output. It displays the Decimal value and its binary representation.
' 
'   Char  Decimal value   bits(3)  bits(2)  bits(1)  bits(0)
'   ----  -------------   -------  -------  -------  -------
'                     0  00000000 00000000 00000000 00000000
'                    32  00000000 00000000 00000000 00000020
'      *             42  00000000 00000000 00000000 0000002A
'      A             65  00000000 00000000 00000000 00000041
'      a             97  00000000 00000000 00000000 00000061
'      {            123  00000000 00000000 00000000 0000007B
'                  198  00000000 00000000 00000000 000000C6

[C#] 
// Example of the implicit conversion from char to decimal.
using System;

class DecimalFromCharDemo
{
    const string formatter = 
        "{0,6}{1,15}{2,10:X8}{3,9:X8}{4,9:X8}{5,9:X8}";

    // Convert the char argument and display the decimal value.
    public static void DecimalFromChar( char argument )
    {
        decimal decValue;
        int[ ]  bits;

        // Display the decimal and its binary representation.
        decValue = argument;
        bits = decimal.GetBits( decValue );

        Console.WriteLine( formatter, argument, decValue, 
            bits[ 3 ], bits[ 2 ], bits[ 1 ], bits[ 0 ] );
    }

    public static void Main( )
    {
        Console.WriteLine( 
            "This example of the implicit conversion from char to " +
            "decimal generates the \nfollowing output. It displays " +
            "the decimal value and its binary representation.\n" );
        Console.WriteLine( formatter, "char", 
            "decimal value", "bits[3]", "bits[2]", 
            "bits[1]", "bits[0]" );
        Console.WriteLine( formatter, "----", 
            "-------------", "-------", "-------", 
            "-------", "-------" );

        // Convert char values and display the results.
        DecimalFromChar( '\0' );
        DecimalFromChar( ' ' );
        DecimalFromChar( '*' );
        DecimalFromChar( 'A' );
        DecimalFromChar( 'a' );
        DecimalFromChar( '{' );
        DecimalFromChar( '' );
    }
}

/*
This example of the implicit conversion from char to decimal generates the
following output. It displays the decimal value and its binary representation.

  char  decimal value   bits[3]  bits[2]  bits[1]  bits[0]
  ----  -------------   -------  -------  -------  -------
                    0  00000000 00000000 00000000 00000000
                   32  00000000 00000000 00000000 00000020
     *             42  00000000 00000000 00000000 0000002A
     A             65  00000000 00000000 00000000 00000041
     a             97  00000000 00000000 00000000 00000061
     {            123  00000000 00000000 00000000 0000007B
                 198  00000000 00000000 00000000 000000C6
*/

[C++] 
// Example of the op_Implicit conversion from __wchar_t to Decimal.
#using <mscorlib.dll>
using namespace System;

const __wchar_t* formatter = 
    L"{0,10}{1,15}{2,10:X8}{3,9:X8}{4,9:X8}{5,9:X8}";

// Convert the __wchar_t argument and display the Decimal value.
void DecimalFromChar( __wchar_t argument )
{
    Decimal decValue;
    Int32   bits[ ];

    // The compiler invokes a constructor in the Managed Extensions 
    // for C++ unless op_Implicit is explicitly called.
    decValue = Decimal::op_Implicit( argument );

    // Display the Decimal and its binary representation.
    bits = Decimal::GetBits( decValue );
    Console::WriteLine( formatter, __box( argument ), 
        __box( decValue ), __box( bits[ 3 ] ), 
        __box( bits[ 2 ] ), __box( bits[ 1 ] ), __box( bits[ 0 ] ) );
}

void main( )
{
    Console::WriteLine( 
        S"This example of the op_Implicit conversion from " 
        S"__wchar_t to Decimal \ngenerates the following output. " 
        S"It displays the Decimal value and \nits binary "
        S"representation.\n" );
    Console::WriteLine( formatter, S"__wchar_t", 
        S"Decimal value", S"bits[3]", S"bits[2]", 
        S"bits[1]", S"bits[0]" );
    Console::WriteLine( formatter, S"---------", 
        S"-------------", S"-------", S"-------", 
        S"-------", S"-------" );

    // Convert __wchar_t values and display the results.
    DecimalFromChar( L'\0' );
    DecimalFromChar( L' ' );
    DecimalFromChar( L'*' );
    DecimalFromChar( L'A' );
    DecimalFromChar( L'a' );
    DecimalFromChar( L'{' );
    DecimalFromChar( L'' );
}

/*
This example of the op_Implicit conversion from __wchar_t to Decimal
generates the following output. It displays the Decimal value and
its binary representation.

 __wchar_t  Decimal value   bits[3]  bits[2]  bits[1]  bits[0]
 ---------  -------------   -------  -------  -------  -------
                        0  00000000 00000000 00000000 00000000
                       32  00000000 00000000 00000000 00000020
         *             42  00000000 00000000 00000000 0000002A
         A             65  00000000 00000000 00000000 00000041
         a             97  00000000 00000000 00000000 00000061
         {            123  00000000 00000000 00000000 0000007B
                     198  00000000 00000000 00000000 000000C6
*/

[JScript] JScript のサンプルはありません。Visual Basic、C#、および C++ のサンプルを表示するには、このページの左上隅にある言語のフィルタ ボタン 言語のフィルタ をクリックします。

必要条件

プラットフォーム: Windows 98, Windows NT 4.0, Windows Millennium Edition, Windows 2000, Windows XP Home Edition, Windows XP Professional, Windows Server 2003 ファミリ, .NET Compact Framework - Windows CE .NET, Common Language Infrastructure (CLI) Standard

参照

Decimal 構造体 | Decimal メンバ | System 名前空間 | Char