Dwuklasowy składnik regresji logistycznej
W tym artykule opisano składnik w projektancie usługi Azure Machine Learning.
Użyj tego składnika, aby utworzyć model regresji logistycznej, który może służyć do przewidywania dwóch (i tylko dwóch) wyników.
Regresja logistyczna to dobrze znana technika statystyczna, która służy do modelowania wielu rodzajów problemów. Ten algorytm jest metodą uczenia nadzorowanego, dlatego należy podać zestaw danych, który zawiera już wyniki trenowania modelu.
Informacje o regresji logistycznej
Regresja logistyczna to dobrze znana metoda w statystykach, która służy do przewidywania prawdopodobieństwa wyniku i jest szczególnie popularna w przypadku zadań klasyfikacji. Algorytm przewiduje prawdopodobieństwo wystąpienia zdarzenia przez dopasowanie danych do funkcji logistycznej.
W tym składniku algorytm klasyfikacji jest zoptymalizowany pod kątem zmiennych dychotomicznych lub binarnych. Jeśli chcesz sklasyfikować wiele wyników, użyj składnika Regresja logistyczna w wielu klasach.
Sposób konfigurowania
Aby wytrenować ten model, należy podać zestaw danych zawierający etykietę lub kolumnę klasy. Ponieważ ten składnik jest przeznaczony do problemów z dwiema klasami, etykieta lub kolumna klasy musi zawierać dokładnie dwie wartości.
Na przykład kolumna etykiety może mieć wartość [Voted] z możliwymi wartościami "Tak" lub "Nie". Lub może to być [Ryzyko kredytowe], z możliwymi wartościami "Wysoki" lub "Niski".
Dodaj do potoku składnik Regresji logistycznej dwuklasowej .
Określ sposób trenowania modelu, ustawiając opcję Utwórz tryb trenera .
Pojedynczy parametr: jeśli wiesz, jak skonfigurować model, możesz podać określony zestaw wartości jako argumenty.
Zakres parametrów: jeśli nie masz pewności co do najlepszych parametrów, możesz znaleźć optymalne parametry przy użyciu składnika Dostrajanie hiperparametrów modelu. Podajesz pewien zakres wartości, a trener iteruje wiele kombinacji ustawień, aby określić kombinację wartości, które dają najlepszy wynik.
W obszarze Tolerancja optymalizacji określ wartość progową, która ma być używana podczas optymalizowania modelu. Jeśli poprawa między iteracjami spadnie poniżej określonego progu, algorytm zostanie uznany za zbieżny z rozwiązaniem i zatrzymanie trenowania.
W przypadku wagi regularnej L1 i wagi regularnej L2 wpisz wartość do użycia dla parametrów regularyzacji L1 i L2. W obu przypadkach zalecana jest wartość niezerowa.
Regularyzacja to metoda zapobiegania nadmiernemu dopasowaniu przez ukaranie modeli z skrajnymi wartościami współczynników. Regularyzacja działa przez dodanie kary powiązanej z wartościami współczynników do błędu hipotezy. W związku z tym dokładny model o skrajnych wartościach współczynników byłby bardziej ukarany, ale mniej dokładny model z bardziej konserwatywnymi wartościami byłby karany mniej.Regularyzacja L1 i L2 ma różne efekty i zastosowania.
L1 można stosować do rozrzednych modeli, co jest przydatne podczas pracy z danymi o wysokiej wymiarach.
Z kolei regularyzacja L2 jest preferowana w przypadku danych, które nie są rozrzedłe.
Ten algorytm obsługuje liniową kombinację wartości regularyzacji L1 i L2: to znaczy, jeśli
x = L1
iy = L2
, definiujeax + by = c
liniowy zakres terminów regularyzacji.Uwaga
Chcesz dowiedzieć się więcej o regularyzacji L1 i L2? Poniższy artykuł zawiera omówienie różnic w regularyzacji L1 i L2 oraz ich wpływu na dopasowanie modelu, z przykładami kodu na potrzeby regresji logistycznej i modeli sieci neuronowych: L1 i L2 Regularyzacja na potrzeby uczenia maszynowego
Różne kombinacje liniowe terminów L1 i L2 zostały opracowane dla modeli regresji logistycznej: na przykład elastycznej regularyzacji sieci. Zalecamy, aby odwoływać się do tych kombinacji, aby zdefiniować kombinację liniową obowiązującą w modelu.
W polu Rozmiar pamięci dla L-BFGS określ ilość pamięci do użycia na potrzeby optymalizacji L-BFGS .
L-BFGS oznacza "ograniczoną pamięć Broyden-Fletcher-Goldfarb-Shanno". Jest to algorytm optymalizacji, który jest popularny w przypadku szacowania parametrów. Ten parametr wskazuje liczbę poprzednich pozycji i gradientów do przechowywania obliczeń w następnym kroku.
Ten parametr optymalizacji ogranicza ilość pamięci używanej do obliczenia następnego kroku i kierunku. Po określeniu mniejszej ilości pamięci trenowanie jest szybsze, ale mniej dokładne.
W polu Inicjator liczb losowych wpisz wartość całkowitą. Definiowanie wartości inicjacji jest ważne, jeśli wyniki mają być odtwarzane w wielu uruchomieniach tego samego potoku.
Dodaj oznaczony etykietą zestaw danych do potoku i wytrenuj model:
Jeśli ustawisz opcję Utwórz tryb trenera na Pojedynczy parametr, połącz oznakowany zestaw danych i składnik Train Model (Trenowanie modelu).
Jeśli ustawisz opcję Utwórz tryb trenera na Wartość Zakres parametrów, połącz oznakowany zestaw danych i wytrenuj model przy użyciu hiperparametrów dostrajania modelu.
Uwaga
Jeśli przekażesz zakres parametrów do trenowania modelu, zostanie użyta tylko wartość domyślna na liście pojedynczych parametrów.
Jeśli przekażesz pojedynczy zestaw wartości parametrów do składnika hiperparametrów modelu dostrajania , gdy oczekuje ona zakresu ustawień dla każdego parametru, zignoruje wartości i używa wartości domyślnych dla ucznia.
Jeśli wybierzesz opcję Zakres parametrów i wprowadzisz pojedynczą wartość dla dowolnego parametru, określona pojedyncza wartość jest używana w trakcie zamiatania, nawet jeśli inne parametry zmienią się w zakresie wartości.
Prześlij potok.
Wyniki
Po zakończeniu szkolenia:
- Aby przewidywać nowe dane, użyj wytrenowanego modelu i nowych danych jako danych wejściowych do składnika Score Model (Generowanie wyników dla modelu ).
Następne kroki
Zobacz zestaw składników dostępnych dla usługi Azure Machine Learning.