Hantera IP-adressintervall med hjälp av API:et
Du kan använda API:er för databerikning för att hantera IP-adressintervall.
Så här använder du skriptet hantera IP-adressintervall
Skapa en CSV-fil med följande förväntade fält: Namn, IP_Address_Ranges, Kategori, Tagg(id) och Override_ISP_Name.
Här är ett exempel på innehållet i CSV-filen:name, ip_address_ranges, category, tag(id), isp_name Test 1,200.200.200.200/24 201.201.201.201/24,1, , Test 2,1.1.1.5/32 31.31.31.4/24,1,000000290000000000000000 0000002d0000000000000000 , Test 3,2.2.2.2/32,1,0000002d0000000000000000, Test 4,5.6.5.4/32,2,,test
Uppdatera värdena för följande skriptvariabler: OPTION_DELETE_ENABLED, IP_RANGES_BASE_URL, CSV_ABSOLUTE_PATH, YOUR_TOKEN
Viktigt!
Om du anger OPTION_DELETE_ENABLED till Sant tas alla IP-adressintervall som definieras i klientorganisationen men som inte finns i CSV-filerna bort från klientorganisationen av skriptet. Om du använder det här alternativet kontrollerar du att CSV-filen definierar alla IP-adressintervall som du vill använda i klientorganisationen.
Kör skriptet för att skapa nya poster och uppdatera befintliga regler med matchande namn.
Parametrar för begärandetext
- "filter": Filtrera objekt med alla sökfilter för begäran. Mer information finns i Filter för databerikning . Om du vill undvika att dina begäranden begränsas måste du inkludera en begränsning i frågan.
- "limit": Heltal. I genomsökningsläge mellan 500 och 5 000 (standardvärdet är 500). Styr antalet iterationer som används för genomsökning av alla data.
Svarsparametrar
- "data": de returnerade data. Kommer att innehålla upp till "begränsa" antalet poster varje iteration. Om det finns fler poster som ska hämtas (hasNext=true) tas de sista posterna bort för att säkerställa att alla data bara visas en gång.
- "hasNext": Booleskt. Anger om en annan iteration av data behövs.
- "nextQueryFilters": Om en annan iteration behövs innehåller den JSON-frågan i följd som ska köras. Använd detta som parametern "filter" i nästa begäran.
I följande Python-exempel används innehållet i en CSV-fil för att hantera IP-adressintervall (skapa, uppdatera eller ta bort) i din Defender för molnet Apps-miljö.
import csv
import http
import requests
import json
OPTION_DELETE_ENABLED = False
IP_RANGES_BASE_URL = 'https://<tenant_id>.<tenant_region>.portal.cloudappsecurity.com/api/v1/subnet/'
IP_RANGES_UPDATE_SUFFIX = 'update_rule/'
IP_RANGES_CREATE_SUFFIX = 'create_rule/'
CSV_ABSOLUTE_PATH = 'rules.csv'
YOUR_TOKEN = '<your_token>'
HEADERS = {
'Authorization': 'Token {}'.format(YOUR_TOKEN),
'Content-Type': 'application/json'
}
# Get all records.
def get_records():
list_request_data = {
# Optionally, edit to match your filters
'filters': {},
"skip": 0,
"limit": 20
}
records = []
has_next = True
while has_next:
response = requests.post(IP_RANGES_BASE_URL, json=list_request_data, headers=HEADERS)
if response.status_code != http.HTTPStatus.OK:
raise Exception(f'Error getting existing subnets from tenant. Stopping script run. Error: {response.content}')
content = json.loads(response.content)
response_data = content.get('data', [])
records += response_data
has_next = content.get('hasNext', False)
list_request_data["skip"] += len(response_data)
return records
# Rule fields are compared to the CSV row.
def rule_matching(record, ip_address_ranges, category, tag, isp_name, ):
new_tags = sorted([new_tag for new_tag in tag.split(' ') if new_tag != ''])
existing_tags = sorted([existing_tag.get('id') for existing_tag in record.get('tags', [])])
rule_exists_conditions = [sorted([subnet.get('originalString', False) for subnet in record.get('subnets', [])]) !=
sorted(ip_address_ranges.split(' ')),
str(record.get('category', False)) != category,
existing_tags != new_tags,
bool(record.get('organization', False)) != bool(isp_name) or
(record.get('organization', False) is not None and not isp_name)]
if any(rule_exists_conditions):
return False
return True
def create_update_rule(name, ip_address_ranges, category, tag, isp_name, records, request_data):
for record in records:
# Records are compared by name(unique).
# This can be changed to id (to update the name), it will include adding id to the CSV and changing row shape.
if record["name"] == name:
# request_data["_tid"] = record["_tid"]
if not rule_matching(record, ip_address_ranges, category, tag, isp_name):
# Update existing rule
request_data['_id'] = record['_id']
response = requests.post(f"{IP_RANGES_BASE_URL}{record['_id']}/{IP_RANGES_UPDATE_SUFFIX}", json=request_data, headers=HEADERS)
if response.status_code == http.HTTPStatus.OK:
print('Rule updated', request_data)
else:
print('Error updating rule. Request data:', request_data, ' Response:', response.content)
json.loads(response.content)
return record
else:
# The exact same rule exists. no need for change.
print('The exact same rule exists. no need for change. Rule name: ', name)
return record
# Create new rule.
response = requests.post(f"{IP_RANGES_BASE_URL}{IP_RANGES_CREATE_SUFFIX}", json=request_data, headers=HEADERS)
if response.status_code == http.HTTPStatus.OK:
print('Rule created:', request_data)
else:
print('Error creating rule. Request data:', request_data, ' Response:', response.content)
# added record
return record
# Request data creation.
def create_request_data(name, ip_address_ranges, category, tag, isp_name):
tags = [new_tag for new_tag in tag.split(' ') if new_tag != '']
request_data = {"name": name, "subnets": ip_address_ranges.split(' '), "category": category, "tags": tags}
if isp_name:
request_data["overrideOrganization"] = True
request_data["organization"] = isp_name
return request_data
def main():
# CSV fields are: Name,IP_Address_Ranges,Category,Tag(id),Override_ISP_Name
# Multiple values (eg: multiple subnets) will be space-separated. (eg: value1 value2)
records = get_records()
with open(CSV_ABSOLUTE_PATH, newline='\n') as your_file:
reader = csv.reader(your_file, delimiter=',')
# move the reader object to point on the next row, headers are not needed
next(reader)
for row in reader:
name, ip_address_ranges, category, tag, isp_name = row
request_data = create_request_data(name, ip_address_ranges, category, tag, isp_name)
if records:
# Existing records were retrieved from your tenant
record = create_update_rule(name, ip_address_ranges, category, tag, isp_name, records, request_data)
record_id = record['_id']
else:
# No existing records were retrieved from your tenant
response = requests.post(f"{IP_RANGES_BASE_URL}{IP_RANGES_CREATE_SUFFIX}", json=request_data, headers=HEADERS)
if response.status_code == http.HTTPStatus.OK:
record_id = json.loads(response.content)
print('Rule created:', request_data)
else:
print('Error creating rule. Request data:', request_data, ' Response:', response.content)
if OPTION_DELETE_ENABLED:
# Remove CSV file record from tenant records.
if record_id:
for record in records:
if record['_id'] == record_id:
records.remove(record)
if OPTION_DELETE_ENABLED:
# Delete remaining tenant records, i.e. records that aren't in the CSV file.
for record in records:
requests.delete(f"{IP_RANGES_BASE_URL}{record['_id']}/", headers=HEADERS)
if __name__ == '__main__':
main()
Nästa steg
Om du stöter på problem är vi här för att hjälpa till. Om du vill få hjälp eller support för ditt produktproblem öppnar du ett supportärende.