Erstellen einer Clientanwendung, die Text analysiert

Abgeschlossen

Hinweis

Weitere Details finden Sie auf der Registerkarte "Text und Bilder ".

Eine Clientanwendung ist ein Programm, das Sie schreiben, das eine Verbindung mit einem Dienst oder Modell herstellt und seine Funktionen verwendet. Ihr Code sendet Anforderungen an den Dienst und empfängt Ergebnisse automatisch zurück – sodass es möglich ist, große Textmengen zu verarbeiten oder KI-Analysen in einen Workflow zu integrieren.

Um eine Verbindung mit einem KI-Dienst herzustellen, verwendet Ihre Anwendung eine API (Application Programming Interface). Eine API ist eine Reihe von Regeln, die definieren, wie zwei Softwareteile kommunizieren. Eine Clientbibliothek ist ein Satz vorgefertigter Code, den Entwickler in ihrer Anwendung verwenden können, um problemlos mit einem Dienst oder einer API zu sprechen. Sie können grundlegendes Material zu Anwendungen und der Verwendung von Endpunkten einsehen in: Get started with AI in Azure.

Verwenden von allgemeinen KI-Modellen für die Textanalyse

Beginnen Sie mit einer Microsoft Foundry-Ressource, und erstellen Sie ein Foundry-Projekt in Ihrer Ressource. Im neuen Foundry-Portal können Sie den Modellkatalog durchsuchen und ein allgemeines Modell bereitstellen.

Sie können eine Clientanwendung erstellen, die mit Microsoft Foundry Models interagiert, indem Sie die Azure OpenAI-API verwenden. Mit der OpenAI-API kann Ihr Code mit einem bereitgestellten Modell kommunizieren, indem Anforderungen an einen Endpunkt gesendet werden, zusammen mit einem API-Schlüssel , um zu beweisen, dass Sie autorisiert sind.

Die Responses-API ist die moderne, einheitliche API innerhalb Azure OpenAI für die Interaktion mit Sprachmodellen. Es wurde entwickelt, um vollständige KI-Interaktionen zu behandeln, nicht nur die Textgenerierung.

Sie können die Antwort-API verwenden, um Aufforderungen in natürlicher Sprache an ein bereitgestelltes Sprachmodell zu senden. Es ist nützlich, wenn Sie eine flexible Analyse im Gesprächsstil benötigen, ohne dass eine feste strukturierte Ausgabe erforderlich ist.

Verwenden der OpenAI-Python-Bibliothek

Das OpenAI Python Library ist ein offizielles Python Software Development Kit (SDK), mit dem Entwickler Python Anwendungen erstellen können, die mit OpenAI-Modellen und -Diensten interagieren, über Code anstelle von unformatierten HTTP-Anforderungen.

Um die OpenAI-Python-Bibliothek zu verwenden, müssen Sie in einem Code-Editor arbeiten. Anwendungscode wird in code-Editoren geschrieben, z. B. Visual Studio Code. Das Terminal eines Code-Editors ist ein integriertes Befehlszeilenfenster im Editor, in dem Sie Befehle ausführen können, ohne Die Entwicklungsumgebung verlassen zu müssen.

1. Installieren Der erforderlichen Pakete

Die OpenAI Python-Bibliothek kann im Visual Studio Code terminal installiert werden:

pip install openai

2. Erstellen einer Konfigurationsdatei

Als Nächstes können Sie eine Konfigurationsdatei (Typ .env) erstellen, um Ihre Umgebungsvariablen wie Endpunkt, Schlüssel und Modellbereitstellungsname zu speichern.

Berücksichtigen Sie die folgenden Variablen:

AZURE_OPENAI_ENDPOINT=https://<your-resource>.openai.azure.com/openai/v1/
MODEL_DEPLOYMENT_NAME=gpt-4.1-mini
API_KEY=<your-foundry-key>

Beachten Sie, wie die Endpunktvariable den Namen Ihrer Foundry-Ressource und openai.azure.com/openai/v1. Ihr API-Schlüssel ist Ihr Findry-Projektschlüssel.

Der Modellimplementierungsname ist der Name , den Sie dem Modell geben, wenn Sie es bereitstellen. Wenn Sie beispielsweise das gpt-4.1-Modell bereitstellen, können Sie es "gpt-demo-model" nennen. Der Bereitstellungsname ist "gpt-demo-model". Wenn Sie den Modellnamen jedoch nicht anpassen, entspricht der Bereitstellungsname dem Modellnamen, wie im obigen Codeausschnitt der Fall ist.

3. Erstellen einer Datei, die Ihre Anwendungslogik enthält

Sehen Sie sich das folgende Anwendungscodebeispiel an:

import os
from dotenv import load_dotenv
from openai import OpenAI

# Load environment variables from .env file
load_dotenv()
endpoint = os.getenv("AZURE_OPENAI_ENDPOINT")
api_key = os.getenv("API_KEY")
deployment_name = os.getenv("MODEL_DEPLOYMENT_NAME")

# Create the client object
client = OpenAI(
    base_url=endpoint,
    api_key=api_key
)

# Make a request using the client
message = client.responses.create(
    model=deployment_name,
    input="",
)

# Print the results
print(f"Sentiment: {message.output[0]}")

Hinweis

Laden von Umgebungsvariablen: In diesem Beispiel dotenv liest (load_dotenv()) Ihre .env Datei und lädt diese Werte in die Umgebung Ihrer App. Das os Paket ruft dann jeden Wert nach Namen mit os.getenv() ab, z. B. os.getenv("AZURE_OPENAI_ENDPOINT").

Jeder Schlüssel in .env muss exakt mit dem Namen in Ihrem Code übereinstimmen. Wenn Ihre Datei z. B. verwendet API_KEY, muss ihr Code auch anfordern API_KEY. Halten Sie Variablennamen konsistent, um fehlende Werte zur Laufzeit zu vermeiden.

Wir verwenden unseren Foundry-Ressourcenendpunkt und schlüssel zum Erstellen eines authentifizierten Clientobjekts. Die OpenAI Klasse wird vom SDK definiert und fungiert als Blueprint für die Verbindung mit der OpenAI-API. Ein authentifizierte Clientobjekt in Python ist ein dienstspezifisches Objekt, das autorisierte API-Aufrufe sicher durchführen kann, ohne dass Ihr Code Token oder geheime Schlüssel manuell verwaltet.

Hinweis

In Python ist eine class ein Blueprint, der einen Typ von Sache definiert – welche Daten sie enthält und welche Aktionen ausgeführt werden können. Ein Objekt ist eine bestimmte Instanz, die aus diesem Blueprint erstellt wurde. Beispielsweise kann eine Car Klasse definieren, dass jedes Auto eine Farbe hat und kann drive() oder stop(). Wenn Sie ein bestimmtes Auto erstellen , z. B. ein rotes Auto , ist das ein Objekt.

Nachdem Sie ein Clientobjekt erstellt haben – konfiguriert mit Ihrem Endpunkt und Schlüssel – können Sie Methoden aufrufen, um mit dem Modell zu interagieren. Sie können z. B. die responsesMethode verwenden, um einen Prompt an eine bestimmte Modellbereitstellung zu senden.

Wir können die Ergebnisse der Analyse anzeigen, indem wir den Anwendungscode im Terminal mit dem Befehl python <file_name>.pyausführen.

Die OpenAI-API ist einfach zu verwenden, aber Die Ergebnisse können zwischen Aufrufen variieren, da das Modell Text probabilistisch generiert. In der Praxis bedeutet dies, dass zwei Aufrufe mit derselben Eingabeaufforderung etwas unterschiedliche Formulierungen oder Formatierungen zurückgeben können. Wenn Ihre App konsistente und strukturierte Werte benötigt, wie zum Beispiel einen Sprachcode, einen Konfidenzwert oder geschwärzten Text, ist das Azure Language SDK die bessere Wahl.

Verwenden des Azure Language SDK

Das Azure Language SDK ist eine Clientbibliothek für Azure Language in Foundry Tools. Das SDK erleichtert Entwicklern das Hinzufügen von NLP-Features, z. B. spracherkennung und das Redagieren von personenbezogenen Informationen (Personally Identifiable Information, PII) zu ihren Anwendungen.

Sehen wir uns an, wie Sie das Azure Language Python SDK verwenden können, um eine Anwendung zu erstellen, die Text analysiert. Um das Azure Language Python SDK nutzen zu können, benötigen Sie eine Foundry-Ressource. Anschließend müssen Sie eine kompatible Version von Python und das Azure Language Python SDK installieren.

Das Python SDK kann im Visual Studio Code terminal installiert werden:

pip install azure-ai-textanalytics

Betrachten Sie das folgende Konfigurationsdateibeispiel:

AZURE_LANGUAGE_ENDPOINT=https://<your-resource>.cognitiveservices.azure.com/
API_KEY=<your-foundry-key>

Betrachten Sie das folgende Anwendungscodebeispiel:

# Import packages
import os
from dotenv import load_dotenv
from azure.core.credentials import AzureKeyCredential
from azure.ai.textanalytics import TextAnalyticsClient

# Load environment variables from .env file
load_dotenv()
endpoint = os.getenv("AZURE_LANGUAGE_ENDPOINT")
key = os.getenv("API_KEY")

# Create the client
client = TextAnalyticsClient(endpoint=endpoint, credential=AzureKeyCredential(key))

# Make a request using the client for language detection
text = "¡Hola! Me llamo Josefina y vivo en Madrid, España."
result = client.detect_language([text])[0]

Wir verwenden die methods des Clients, um Azure Language-Funktionen aufzurufen, z. B. detect_language und recognize_pii_entities.

Spracherkennung: Die detect_language() Methode verwendet eine Liste von Textzeichenfolgen und gibt die erkannte Sprache, den ISO 639-1-Code und einen Konfidenzwert zwischen 0 und 1 zurück.

text = "¡Hola! Me llamo Josefina y vivo en Madrid, España."
result = client.detect_language([text])[0]

# Print the results
print(f"Language      : {result.primary_language.name}")
print(f"ISO code      : {result.primary_language.iso6391_name}")
print(f"Confidence    : {result.primary_language.confidence_score:.2f}")

PII-Erkennung: Die recognize_pii_entities() Methode identifiziert persönliche Details im Text und gibt sowohl die redacted Version des Texts als auch eine Liste der gefundenen Entitäten zurück, einschließlich der Kategorie und der Konfidenzbewertung der einzelnen Entitäten.

text = "Maria Garcia called from 020 7946 0958 and asked to send documents to 42 Market Road, London, UK, SW1A 1AA."

result = client.recognize_pii_entities([text])[0]

# Print the results
print("Redacted text:", result.redacted_text)
print("\nEntities found:")
for entity in result.entities:
    print(f"  {entity.text} | category={entity.category} | confidence={entity.confidence_score}")

Mit der OpenAI-API und dem Azure Language SDK können Sie Code für KI-Anwendungen schreiben, die natürliche Sprache verarbeiten und Einblicke aus Ihrem Text generieren.

Als Nächstes sehen wir uns an, wie Azure Sprachfunktionen in KI-Agents einbezogen werden.