Migrera Time Series Insights Gen1 till Realtidsinformation i Microsoft Fabric
Kommentar
Time Series Insights-tjänsten dras tillbaka den 7 juli 2024. Överväg att migrera befintliga miljöer till alternativa lösningar så snart som möjligt. Mer information om utfasning och migrering finns i vår dokumentation.
Översikt
Eventhouse är tidsseriedatabasen i Realtidsinformation. Den fungerar som mål för migrering av data från Time Series Insights.
Förutsättningar
- En arbetsyta med en Microsoft Fabric-aktiverad kapacitet
- Ett händelsehus på din arbetsyta
Mata in nya data
Använd följande steg för att börja mata in nya data i ditt Eventhouse:
Konfigurera din händelsehubb med en ny konsumentgrupp.
Förbruka data från datakällan och mata in dem i ditt Eventhouse. Läs dokumentationen om hur du matar in data från din händelsehubb.
Migrera historiska data från Time Series Insights
Om du behöver exportera data från din Time Series Insights-miljö kan du använda Time Series Insights Query-API:et för att ladda ned händelserna i batchar och serialisera dem i det format som krävs. Beroende på var du lagrade exporterade data kan du mata in data från Azure Storage, lokala filer eller OneLake.
Migrera referensdata
Använd följande steg för att migrera referensdata:
Använd Time Series Insights Explorer eller API:et för referensdata för att ladda ned referensdatauppsättningen.
När du har angett referensdata laddar du upp den till Eventhouse som en annan tabell. Genom att ladda upp referensdatauppsättningen kan du komma åt och använda den i din Eventhouse-miljö.
Översätta Time Series Insights-frågor till Kusto-frågespråk
För frågor rekommenderar vi att du använder Kusto Query Language i Eventhouse.
Händelser
{
"searchSpan": {
"from": "2021-11-29T22:09:32.551Z",
"to": "2021-12-06T22:09:32.551Z"
},
"predicate": {
"predicateString": "([device_id] = 'device_0') AND ([has_error] != null OR [error_code] != null)"
},
"top": {
"sort": [
{
"input": {
"builtInProperty": "$ts"
},
"order": "Desc"
}
],
"count": 100
}
}
events
| where _timestamp >= datetime("2021-11-29T22:09:32.551Z") and _timestamp < datetime("2021-12-06T22:09:32.551Z") and deviceid == "device_0" and (not(isnull(haserror)) or not(isempty(errorcode)))
| top 100 by _timestamp desc
Aggregeringar
{
"searchSpan": {
"from": "2021-12-04T22:30:00Z",
"to": "2021-12-06T22:30:00Z"
},
"predicate": {
"eq": {
"left": {
"property": "DeviceId",
"type": "string"
},
"right": "device_0"
}
},
"aggregates": [
{
"dimension": {
"uniqueValues": {
"input": {
"property": "DeviceId",
"type": "String"
},
"take": 1
}
},
"aggregate": {
"dimension": {
"dateHistogram": {
"input": {
"builtInProperty": "$ts"
},
"breaks": {
"size": "2d"
}
}
},
"measures": [
{
"count": {}
},
{
"sum": {
"input": {
"property": "DataValue",
"type": "Double"
}
}
},
{
"min": {
"input": {
"property": "DataValue",
"type": "Double"
}
}
},
{
"max": {
"input": {
"property": "DataValue",
"type": "Double"
}
}
}
]
}
}
]
}
let _q = events | where _timestamp >= datetime("2021-12-04T22:30:00Z") and _timestamp < datetime("2021-12-06T22:30:00Z") and deviceid == "device_0";
let _dimValues0 = _q | project deviceId | sample-distinct 1 of deviceId;
_q
| where deviceid in (_dimValues0) or isnull(deviceid)
| summarize
_meas0 = count(),
_meas1 = iff(isnotnull(any(datavalue)), sum(datavalue), any(datavalue)),
_meas2 = min(datavalue),
_meas3 = max(datavalue),
by _dim0 = deviceid, _dim1 = bin(_timestamp, 2d)
| project
_dim0,
_dim1,
_meas0,
_meas1,
_meas2,
_meas3,
| sort by _dim0 nulls last, _dim1 nulls last