Share via


Business Intelligence: Aufbau einer Datengrundlage für eine BI-Lösung

In diesem Artikel zeige ich Ihnen, wie Sie einen einfachen Data Mart entwerfen und entwickeln, um zu zeigen, wie Sie SQL Server 2008 Integration Services (SSIS) für die Durchführung von ETL für Ihre eigene BI-Lösung durchführen können.

Derek Comingore

Kurz zusammengefasst:

  • Verwenden des dimensionalen Modells bei der Entwicklung eines Data Marts
  • Entwickeln von ETL-Prozessen und -Datenzuordnungen
  • Verwenden von Integration Services für ETL
  • Erstellen eines Integration Services-Projekts in BIDS

Codedownload verfügbar unter: SampleCode2009_08.exe (151 KB)

Daten bilden die wichtigsten Komponenten von Business Intelligence (BI)-Lösungen. Wie Stacia Misner in ihrem Artikel Planning Your First Microsoft BI Solution (Planen Ihrer ersten Microsoft BI-Lösung) erklärt, besteht die Integration von Daten in Ihre BI-Lösung und deren Wartung aus mehreren Schritten. BI-Experten bezeichnen diese Schritte als Extraktions-, Umwandlungs- und Ladeprozesse (Extract, Transform and Load, ETL). Auch wenn Sie nicht vorhaben, sich in Ihrer beruflichen Laufbahn auf BI zu konzentrieren, können Sie die ETL-Techniken und -Tools für die Verwaltung der Daten verwenden, die Sie für Ihre täglichen Entscheidungen benötigen. In diesem Artikel zeige ich Ihnen, wie Sie einen einfachen Data Mart entwerfen und entwickeln, um zu zeigen, wie Sie SQL Server 2008 Integration Services (SSIS) für die Durchführung von ETL für Ihre eigene BI-Lösung durchführen können.

Verstehen der Anforderungen

Wie bei jedem IT-Projekt, sollten Sie auch bei einem ETL-Projekt als Erstes versuchen, die allgemeinen Anforderungen an die BI-Lösung zu verstehen, die Sie entwickeln möchten, und sich erst danach den Daten zuwenden. So können Sie herausfinden, wie Sie diese Anforderungen am besten unterstützen. Der erste Artikel in dieser Serie führt Sie in die BI-Lösung ein, die das fiktive Unternehmen Adventure Works benötigt. Das Unternehmen muss verschiedene Fragen beantworten, um die analytischen Herausforderungen genauer zu verstehen. Diese Fragen betonen die Notwendigkeit für Adventure Works, die Produktumsätze aus verschiedenen Perspektiven zu betrachten: Profitabilität nach Vertriebskanal (Großhändler oder Internet), Änderungen der Nachfrage über die Zeit sowie der Unterschied zwischen tatsächlichem und prognostiziertem Umsatz nach Produkt, Vertriebsmitarbeiter, Region und Art des Großhändlers. Die Antworten auf diese Fragen helfen Adventure Works bei der Entscheidung, auf welchen Vertriebskanal das Unternehmen sich konzentrieren sollte, um den Gewinn zu steigern, wie es die Produktionsprozesse anpassen sollte, um die Nachfrage am besten zu befriedigen, und welche Änderungen in der Vertriebsstrategie dem Unternehmen helfen könnten, die Vertriebsziele zu erreichen. Sie werden sehen, wie die Daten die Beantwortung dieser Geschäftsfragen unterstützen, wenn Sie SQL Server Reporting Services (SSRS) der BI-Lösung hinzufügen.

Bevor ich damit beginne, den Data Mart für Adventure Works unter Berücksichtigung dieser Anforderungen zu entwerfen, muss ich die Informationsanforderungen aus einer geschäftlichen Perspektive heraus modellieren. Mit anderen Worten, der Entwurf eines Data Marts sollte auf der Art und Weise basieren, wie Benutzer ihre Fragen stellen, und nicht auf der Art und Weise, wie die Daten aus den verschiedenen Datenquellen dargestellt werden.

Für die in diesem Artikel verwendeten Codebeispiele benötigen Sie die SQL Server 2008 Adventure Works OLTP-Beispieldatenbank.

Verwenden des dimensionalen Modells

Ein Data Mart wird in der Regel mittels eines Entwurfs auf der Basis eines dimensionalen Modells entwickelt. Dieses Datenbankschema eignet sich gut für Analysen. (Eine gute Ressource für Informationen über die dimensionale Modellierung ist kimballgroup.com.) Ein dimensionales Modell stellt Daten auf eine den Benutzern vertraute Art und Weise dar und hilft Ihnen bei der Entwicklung von Datenstrukturen, die für Abfragen großer Datenmengen optimiert sind. Sie erzielen diese Optimierung, indem Sie die Daten denominalisieren. Dadurch kann das Datenbankmodul zur Abfragezeit eine große Menge von Daten schnell auswählen und effizient aggregieren. Ich integriere im denominalisierten Schema für die Adventure Works-Lösung zwei Arten von Tabellen: Dimension und Fakt. In einer Dimensionstabelle werden Informationen zu Geschäftsentitäten und -objekten gespeichert, wie Großhändler oder Produkte. Eine Faktentabelle enthält numerische Measures und Schlüssel, die Fakten in Beziehung zu den Dimensionstabellen setzen. Ich verwende Faktentabellen für die numerischen Vertriebsdaten, die ich aggregieren muss. Ich werde Faktentabellen später in diesem Artikel ausführlicher behandeln.

Sie können die Tabellen eines dimensionalen Modells in zwei Arten von Schemen implementieren: Sternschemen und Schneeflockenschemen. Einfach ausgedrückt, wird in einem Sternschema für jede Dimension jeweils eine Tabelle verwendet. Diese wird durch eine Abfrage mittels eines einzelnen Join-Operators in eine Beziehung mit einer Faktentabelle gebracht. In einem Schneeflockenschema werden für jede Dimension zwei oder mehr Tabellen verwendet. Daher werden in einer Abfrage mehrere Join-Operatoren benötigt, um alle Daten anzuzeigen. Diese Sammlung kaskadierender Join-Operatoren bedeutet, dass Abfragen in einem Schneeflockenschema häufig langsamer als in einem Sternschema ausgeführt werden. Im Rahmen dieses Artikels verwende ich einen einfachen Entwurf und daher ein Starschema.

Erstellen einer Busmatrix

Im Rahmen des dimensionalen Modellierungsprozesses erstelle ich eine Busmatrix, um die Dimensionen zu identifizieren, die mit dem Vertrieb verknüpft sind, dem Fokus der BI-Lösung für Adventure Works. Adventure Works verfügt über zwei Vertriebskanäle: Großhändler, die Wiederverkäufer bedienen, und Einzelverkäufe über das Internet. Ich verwende die Busmatrix auch, um die Beziehung der einzelnen Dimensionen zu einem oder zu beiden dieser Vertriebskanäle zu identifizieren. In Abbildung 1 sehen Sie meine Busmatrix für den Adventure Works-Vertrieb.

Adventure
Works-Vertrieb
Datum Produkt Kunde Promo Region Wiederverkäufer
Vertriebsregion
Mitarbeiter Währung
Internetumsätze X X X X     X   X
Wiederverkäuferumsätze X X   X   X X X X

Abbildung 1**: Busmatrix für den Adventure Works-Vertrieb**

Im nächsten Schritt lege ich die Measures für die Lösung fest. Measures sind die numerischen Werte, die für die Analyse erforderlich sind. Sie können direkt aus der Quelle stammen, wie die Umsätze oder die Produktkosten, oder mittels einer Berechnung abgeleitet werden, wie die Multiplizierung einer Anzahl von Produkten mit einer Geldsumme für einen erweiterten Umsatzbetrag. Ich muss auch entscheiden, welche Attribute ich die einzelnen Dimensionen auswähle. Attribute sind die einzelnen Elemente einer Dimension (entsprechend Spalten in einer Tabelle), mit denen Sie Daten zu Analysezwecken filtern oder gruppieren können, wie "Land" in der Vertriebsregion-Dimension oder "Jahr" in der Date-Dimension. Ich werde die einzelnen Messungen oder dimensionalen Attribute in diesem Artikel nicht alle ausführlich beschreiben. Denken Sie jedoch daran, dass dieser Identifizierungsprozess stattfinden muss.

Erstellen einer Datenzuordnung

Bevor ich physische Tabellen für den Data Mart erstelle, muss ich einige weitere Planungen durchführen. Insbesondere muss ich ein Dokument für die Datenzuordnungen erstellen, um die einzelnen Zielspalten im Data Mart-Schema mit den Spalten im Adventure Works OLTP-Quellsystem (der AdventureWorks2008-Datenbank, die Sie, wie im Artikel von Stacia Misner auf Seite 31 beschrieben, herunterladen und installieren können). Für die Erstellung einer Datenzuordnungen können Sie verschiedene Anwendungen verwenden. Das Format ist hier nicht so wichtig wie der Inhalt. Ich bevorzuge die Entwicklung von Datenzuordnungen in Microsoft Office Excel. In Abbildung 2 sehen Sie die DimProduct-Registerkarte, die ich in meiner Datenzuordnung erstellt habe. Ich habe außerdem DimCustomer- und FactInternetSales-Datenzuordnungen erstellt. Jedes Arbeitsblatt in der Arbeitsmappe entspricht einer Tabelle in meinem Data Mart. In jedem Arbeitsblatt gibt es nur zwei Spalten: die Quellspalte und die Zielspalte.

Figure 2 DimProduct Data Mapping Tab

Abbildung 2**: DimProduct-Registerkarte für die Datenzuordnung**

Jede Dimensionstabelle (außer der Date-Dimension) hat einen primären Schlüssel, der Ersatzschlüssel genannt wird (in der Regel eine Identitätsspalte). Ein Vorteil der Verwendung von Ersatzschlüsseln besteht darin, dass Sie Daten aus mehreren Systemen kombinieren können, ohne Gefahr duplizierter Schlüssel zu laufen.

Die Dimensionstabellen verfügen außerdem über eine Spalte für einen alternativen Schlüssel. Diese alternativen Schlüssel stellen natürliche Schlüssel dar, die gelegentlich auch Geschäftsschlüssel genannt werden. Dies sind die Kennzeichner des Quellsystems. Beispielsweise ist die Spalte CustomerAlternateKey in der Customer-Dimension dem Adventure Works OLTP-Datenbankfeld AccountNumber in der Sales.Customer-Tabelle zugeordnet. Durch das Speichern dieser Schlüssel in der Dimensionstabelle kann ich bei jeder Ausführung eines ETL-Prozesses für die einzelnen Dimensionen Einträge, die in der Dimension bereits vorhanden sind, mit Einträgen, die aus der Quelle extrahiert wurden, abgleichen.

Beinahe jeder Data Mart enthält eine Date-Dimension, da Unternehmen Änderungen in den Measures häufig nach Tag, Woche, Monat, Vierteljahr oder Jahr analysieren. Die Date-Dimension stammt in der Regel nie aus einem Quellsystem. Daher können hier die Gründe für die Verwendung eines Schlüssels auf der Basis von SQL Server IDENTITY nicht angewendet werden. Stattdessen verwende ich einen intelligenten Schlüssel im Format JJJJMMTT, der als SQL Server Integer-Spalte gespeichert wird. Ein intelligenter Schlüssel ist ein Schlüssel, der aus Logik oder Skripts generiert wird und kein selbst inkrementierender Schlüssel wie eine IDENTITY-Spalte in SQL Server ist.

Denken Sie daran, dass die Date-Dimension in der Regel keiner Quelltabelle zugeordnet werden kann. Verwenden Sie stattdessen ein Skript, um die Daten zu generieren und Datensätze in die Tabelle zu laden.

Da die für mein kleines Schema erforderlichen ETL-Prozesse ziemlich einfach sind, ist meine Datenzuordnung ausreichend. In einem echten Projekt würde ich die Datenzuordnung kommentieren, um die Stellen zu markieren, an denen komplexe Umwandlungen erforderlich sind.

Erstellen des Data Marts

Nachdem nun die logische Modellierung abgeschlossen ist, muss ich die physischen Tabellen erstellen, die die ETL-Prozesse laden werden, sowie eine Hostdatenbank für diese Tabellen. Ich verwende ein einfaches T-SQL-Skript, um sowohl meine Datenbank als auch die mit dieser verknüpften Dimension und die Fakttabellen zu erstellen. Sie finden das vollständige T-SQL-Skript im entsprechenden Download für die Beispiel-BI-Lösung unter Codedownloads für 2009.

Für die Zwecke dieses Artikels habe ich nur einen Teil des gesamten Vertriebs-Data Mart-Schemas erstellt, sodass ich den gesamten ETL-Prozess in SSIS abdecken kann. In der kleineren Version des Schemas verwende ich nur die OrderQuantity- und SalesAmount-Measures für die Faktentabelle für die Internetumsätze. Außerdem enthält mein kleineres Schema eine vereinfachte Version der Customer-, Product- und Date-Dimensionstabellen.

Entwickeln von ETL-Prozessen

Der Entwurf und die Entwicklung von ETL-Prozessen bilden den nächsten Schritt bei der Entwicklung einer BI-Lösung. Zur Erinnerung – ETL enthält alle technischen Prozesse, durch die Daten aus Datenquellen extrahiert, umgewandelt und in ein Zielrepository geladen werden. Im allgemeinen extrahieren die ETL-Prozesse einer BI-Lösung Daten aus Textdateien und OLTP-Produktionsdatenbanken, ändern die Daten, um sie an ein dimensionales Modell anzupassen (z. B. an ein Sternschema), und laden die daraus resultierenden Daten in einen Data Mart.

Erstellen eines SSIS-Projekts in BIDS

Der erste Schritt bei der Entwicklung eines ETL-Projekts besteht in der Erstellung eines neuen Projekts in Business Intelligence Development Studio (BIDS). BIDS ist Bestandteil von SQL Server 2008 und wird installiert, wenn Sie während des Installationsprozesses die Option für Arbeitsstationskomponenten auswählen. BIDS enthält Projektvorlagen für SSIS, SSAS und SSRS. Es unterstützt außerdem die Integration der Quellcodeverwaltung, genau wie Visual Studio.

Um BIDS zu starten, wechseln Sie zu "Start\Programme\Microsoft SQL Server 2008\Business Intelligence Development Studio", und wählen Sie dort "Datei\Neues Projekt" aus. Die Vorlage für neue Projekte wird angezeigt, wie in Abbildung 3 gezeigt.

Figure 3 New Project Template in BIDS 2008

Abbildung 3 : Vorlage für neue Projekte in BIDS 2008

Wählen Sie im Vorlagenbereich "Integration Services-Projekt" aus, geben Sie im Textfeld für den Namen "ssis_TECHNET_AW2008" ein, und klicken Sie anschließend auf "OK". BIDS zeigt nun ein geöffnetes SSIS-Projekt an.

Erstellen allgemeiner Datenverbindungen

Eine andere nützliche Funktion in SSIS 2008 ist die Möglichkeit, Datenquellenverbindungen außerhalb der einzelnen Pakete herzustellen. Sie können eine Datenquellenverbindung einmal definieren und anschließend in einem oder mehreren SSIS-Paketen innerhalb der Lösung auf diese verweisen. Weitere Informationen zur Erstellung von BIDS-Datenquellen finden Sie in How to: Define a Data Source Using the Data Source Wizard (Analysis Services)" (Gewusst wie: Definieren einer Datenquelle mittels des Datenquellen-Assistenten (Analysis Services)).

Erstellen Sie zwei neue Datenquellenverbindungen: eine für die TECHNET_AW2008SalesDataMart-Datenbank und eine für die AdventureWorks2008 OLTP-Datenbank. Benennen Sie die Datenquellenverbindungen mit AW_DM.ds bzw. AW_OLTP.ds.

Entwickeln der ETL für Dimensionen

Die ETL für das Laden der Product-Dimension ist sehr einfach. Ich muss die Daten aus der Adventure Works-Tabelle "Production.Product" extrahieren und in die TECHNET_AW2008SalesDataMart-Datenbank laden. Zunächst muss ich das Standardpaket umbenennen, das von BIDS für mein SSIS-Projekt erstellt wurde. (Ein Paket ist ein Container für alle Schritte im Workflow, die von SSIS ausgeführt werden.) Klicken Sie mit der rechten Maustaste im Solution Explorer auf das Standardpaket, und wählen Sie die Option für die Umbenennung aus. Geben Sie "DIM_PRODUCT.dtsx" ein, und drücken Sie die EINGABETASTE.

Als Nächstes muss ich mittels der vorab erstellten Datenquellen Verbindungsmanager für das lokale Paket erstellen. Erstellen Sie zwei neue Verbindungsmanager, die auf die vorher erstellten Datenquellen verweisen.

Definieren eines Datenflusses für das Extrahieren und Laden

SSIS enthält eine Datenflussaufgabe, die alles enthält, was ich für die Implementierung der ETL für eine einfache Dimension benötige. Ich muss nur eine Datenflussaufgabe aus der Toolbox auf die Oberfläche des Ablaufsteuerungs-Designers ziehen und die Aufgabe zu „EL“ (Extrahieren und Laden) umbenennen. Klicken Sie mit der rechten Maustaste auf die Datenflussaufgabe im Designer, und wählen Sie "Bearbeiten" aus. BIDS zeigt nun den Datenfluss-Designer an.

Der Extraktionsteil des Product-Dimensionspakets muss die AdventureWorks2008-Tabelle "Production.Product" abfragen. Um diese Aufgabe einzurichten, muss ich eine OLE DB-Quellkomponente aus der Toolbox auf die Oberfläche des Datenfluss-Designers ziehen und anschließend diese OLE DB-Quellkomponente zu AW_OLTP umbenennen.

Als Nächstes definiere ich den Ladeteil meines Pakets, der in den Data Mart geladen werden soll. Ich ziehe dafür einfach eine neue Instanz der OLE DB-Zielkomponente auf die Oberfläche des Datenfluss-Designers und benenne sie zu AW_OLTP um. Anschließend klicke ich auf die OLE DB-Quellkomponente (AW_OLTP) und ziehe den grünen Pfeil, der auf der OLE DB-Quelle angezeigt wird, auf die AW_DM OLE DB-Zielkomponente, um die beiden Komponenten zu verbinden.

Jetzt habe ich dem Datenfluss die nötigen Komponenten hinzugefügt. Ich muss jedoch die einzelnen Komponenten konfigurieren, sodass SSIS weiß, wie ich die Daten extrahieren und laden möchte. Klicken Sie mit der rechten Maustaste auf die AW_DM OLE DB-Zielkomponente, und wählen Sie "Bearbeiten" aus. Ich vergewissere mich im geöffneten OLE DB-Zieleditor, dass AW_DM als OLE DB-Verbindungsmanager ausgewählt ist. Anschließend erweitere ich den Namen der Dropdownliste der Tabelle und wähle die dbo.DimProduct-Tabelle aus. Zum Schluss klicke ich auf die Registerkarte für Zuordnungen, um mich zu vergewissern, dass die Zuordnungen korrekt sind. Ich klicke auf "OK", um die Zuordnungen zu bestätigen. Dieser Prozess ist sehr viel einfacher, wenn Ihnen eine Datenzuordnung als Referenz zur Verfügung steht, besonders wenn Sie mit großen Tabellen arbeiten. Das ETL-Paket der Product-Dimension ist nun vollständig.

Sie können das Paket auf einfache Weise innerhalb von BIDS ausführen. Um das Product-Dimensionspaket zu testen, öffnen Sie das Paket und drücken die Taste F5.

Entwicklung weiterer Pakete

Ich erstelle das Customer-Dimensionspaket auf die gleiche Weise wie das Product-Paket. An dieser Stelle möchte ich die Schritte für die Erstellung dieses neuen Pakets nicht wiederholen. Versuchen Sie, dieses Paket selbst zu erstellen. Beachten Sie, dass dieses Paket eine XML-Datentyp-Spalte in der Quelle verwendet (Person.Person.Demographics). Das bedeutet, dass Sie die einzelnen Demografieattribute analysieren müssen. Um die einzelnen Werte aus einer SQL Server XML-Datentyp-Spalte zu analysieren, können Sie XQuery mit der datentypeigenen Methode Value() verwenden. Benennen Sie das fertige Paket mit DIM_CUSTOMER.dtsx.

Die Entwicklung eines SSIS-Pakets für die Date-Dimension ist optional. Da diese Dimension in der Regel nicht über Quelldaten verfügt, ist es am einfachsten, sie mittels eines einfachen T-SQL-Skript zu laden. Sie finden das von mir verwendete Skript in der fertigen Lösung.

Entwicklung des Internetumsatz-Faktentabellenpakets

Das Internetumsatz-Faktentabellenpaket fragt alle Internetumsätze ab und gibt diese Werte nach Produkt, Kunde und Datum (d. h. Bestelldatum) gefiltert zurück. Anders als im Fall von Dimensionspaketen erfordert ein Faktentabellenpaket einen zusätzlichen Schritt, um die Ersatzschlüssel und die intelligenten Schlüssel in den entsprechenden Dimensionstabellen nachzuschlagen, bevor die Daten in die Faktentabelle geladen werden. Sie können ein neues Paket erstellen und dieses FACT_INTERNET_SALES.dtsx nennen.

Der Extraktionsteil des Pakets muss die AdventureWorks2008-OLTP-Datenbank mittels des in Abbildung 4 gezeigten T-SQL-Codes abfragen.

SELECT
       P.ProductID
       ,CONVERT(INT,CONVERT( CHAR(4), YEAR(H.OrderDate) ) + RIGHT('0'+ CONVERT(VARCHAR(3), 
            MONTH(H.OrderDate) ),2) + RIGHT('0'+ CONVERT( VARCHAR(3), 
DAY(H.OrderDate) ),2)) AS OrderDateKey
       ,C.AccountNumber 
       ,SUM(D.OrderQty) AS OrderQuantity
       ,SUM(D.LineTotal) AS SalesAmount
FROM
       [Sales].[SalesOrderDetail] D
INNER JOIN
       [Sales].[SalesOrderHeader] H ON (D.SalesOrderID = H.SalesOrderID)
INNER JOIN
       [Production].[Product] P ON (D.ProductID = P.ProductID)
INNER JOIN
       [Sales].[Customer] C ON (H.CustomerID = C.CustomerID)
WHERE
        H.OnlineOrderFlag = 1
GROUP BY
        P.ProductID
        ,H.OrderDate 
        ,C.AccountNumber

Abbildung 4 : T-SQL-Code für Internetumsätze nach Produkt, Datum und Kunde

Erstellen Sie in der Ablaufsteuerungsoberfläche des Pakets eine neue Datenflussaufgabe. Öffnen Sie den Datenfluss-Designer, und erstellen Sie eine OLE DB-Quellkomponente. Benennen Sie die Komponente mit AW_OLTP, und verwenden Sie die Abfrage aus Abbildung 4 als ihre Quelle. Mit dieser Abfrage wird eine Aggregation (Summe) für die OrderQuantity- und SalesAmount-Measures erstellt, die in den Adventure Works-Vertriebstabellen gefunden werden.

Nun müssen Sie eine Nachschlage-Transformation konfigurieren. Ziehen Sie zwei neue Instanzen der Nachschlage-Transformationskomponente aus der Toolbox auf die Oberfläche des Datenfluss-Designers , und nennen Sie diese "Product" und "Customer". Konfigurieren Sie die erste Komponente (Product) für das Nachschlagen des ProductKey in der Product-Dimensionstabelle, indem Sie den AlternateKey der Dimensionstabelle in eine Beziehung mit dem eingehenden ProductID-Feld aus der AW_OLTP-Quellabfrage bringen.

Konfigurieren Sie die zweite Komponente (Customer) für das Nachschlagen des CustomerKey in der Customer-Dimensionstabelle, indem Sie den AlternateKey der Dimensionstabelle in eine Beziehung mit dem eingehenden AccountNumber-Feld aus der AW_OLTP-Quellabfrage bringen.

Abschließende Schritte

Der abschließende Schritt besteht im Laden der Daten in die FactInternetSales-Tabelle, sodass diese die natürlichen Schlüssel für die einzelnen Dimensionen durch die Ersatzschlüssel ersetzen, die während der Nachschlagetransformation gefunden wurden. Ziehen Sie eine neue Instanz der OLE DB-Zielkomponente hierher, und nennen Sie diese AW_DM. Bearbeiten Sie die OLE DB-Zielkomponente, und wählen Sie den AW_DM-Verbindungsmanager aus. Wählen Sie als Nächstes die dbo.FactInternetSales-Tabelle aus, und klicken Sie auf die Registerkarte für Zuordnungen. Stellen Sie sicher, dass die Zuordnungen wie die Zuordnungen in Abbildung 5 aussehen. Klicken Sie auf "OK", um die Paketlogik zu erstellen.

Figure 5 OLE DB Destination Mappings for the Fact Internet Sales Fact Table

Abbildung 5 : OLE DB-Zielzuordnungen für die FactInternetSales-Faktentabelle

Um das Internetumsatzfakten-Paket zu testen, öffnen Sie das Paket in BIDS und drücken die Taste F5.

Sie verstehen nun die Grundlagen der dimensionalen Modellierung und der Entwicklung von ETL-Paketen mit SSIS. Im dritten Artikel dieser Serie erfahren Sie, wie Sie einen ausgefüllten Data Mart für die Erstellung von Dimensionen und Cubes für eine SSAS-Datenbank verwenden. Nach der Erstellung eines Cubes können Sie ein SSIS-Paket entwickeln, um diese Objekte in der SSAS-Datenbank jedes Mal, wenn dem Data Mart neue Daten hinzugefügt werden, zu aktualisieren. Mittels SSIS können Daten sogar für die Anzeige in einem SSRS-Bericht vorbereitet werden, wenn die Anforderungen des Berichts nicht durch eine einzelne Abfrage erfüllt werden können. Wie Sie sehen, kann SSIS sehr viel mehr zur Verwaltung Ihrer BI-Lösung beitragen als nur die ETL-Verarbeitung.

Derek Comingore * ist Senior Architect bei ComFrame. Als SQL Server MVP und Certified Professional für mehrere Microsoft-Technologien, darunter SQL Server BI, hält er Vorträge für SQL Server-Benutzergruppen auf regionaler und nationaler Ebene und veröffentlicht Artikel zu SQL Server-Themen. Der Schwerpunkt von Derek Comingore liegt auf der Entwicklung und Bereitstellung von Data Warehouse- und BI-Lösungen für Unternehmen mittels SQL Server und anderer Microsoft BI-Softwareprodukte. Sie erreichen Derek Comingore unter dcomingore@comframe.com*.