• Nowość!

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Indeks: KSZ-25310 EAN: 9788328908116

Drugie wydanie książki Uczenie maszynowe w Pythonie, zawiera ponad 200 sprawdzonych receptur, które bazują na najnowszych wydaniach bibliotek Pythona. Zawierają one gotowe kody, które można dostosować do swoich potrzeb. W książce przedstawione są gotowe przykłady, dotyczące pracy z danymi w wielu formatach, bazami i magazynami danych, a także wiele innych rad, które mogą się przydać podczas rozwiązywania spektrum problemów, począwszy od przygotowania i wczytania danych, aż po trenowanie modeli i korzystanie z sieci neuronowych. Publikacja nada się dla osób chcących wdrożyć algorytmy uczenia maszynowego w praktyce.

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II -...
55,90 zł
53,24 zł netto
Zapłać później
Czas oczekiwania: 1-2 tyg.
Chwilowo niedostępny
Producent: Helion

Opis produktu: Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wyd. II - Kyle Gallatin, Chris Albon

Drugie wydanie książki Uczenie maszynowe w Pythonie, zawiera ponad 200 sprawdzonych receptur, które bazują na najnowszych wydaniach bibliotek Pythona. Zawierają one gotowe kody, które można dostosować do swoich potrzeb. W książce przedstawione są gotowe przykłady dotyczące pracy z danymi w wielu formatach, bazami i magazynami danych, a także wiele innych rad, które mogą się przydać podczas rozwiązywania spektrum problemów, począwszy od przygotowania i wczytania danych, aż po trenowanie modeli i korzystanie z sieci neuronowych. Publikacja nada się dla osób chcących wdrożyć algorytmy uczenia maszynowego w praktyce.

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin.

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu.

Kilka słów o autorach

Kyle Gallatin jest inżynierem, który zajmuje się oprogramowaniem na platformie uczenia maszynowego w Etsy. Pracował także jako naukowiec, analityk danych oraz inżynier uczenia maszynowego.

Dr Chris Albon od wielu lat jest analitykiem danych oraz politologiem. Obecnie pracuje dla Devoted Health, był także głównym analitykiem danych w kenijskim startupie BRCK.

Uczenie maszynowe - receptury

Uczenie maszynowe stanowi jeden z bardzo ciekawych i dynamicznie rozwijających się obszarów technologii informatycznej. W książce znajdziemy informacje dotyczące pracy z danymi w wielu formatach, bazami i magazynami danych. Omówione są również techniki redukcji wymiarowości oraz metody oceny i wyboru modeli. Publikacja zawiera receptury dotyczące takich zagadnień jak regresja liniowa i logistyczna, drzewa decyzyjne oraz lasy losowe, a także algorytmy k-najbliższych sąsiadów, maszyny wektorów nośnych (SVM), naiwna klasyfikacja bayesowska oraz klasteryzacja.

Informacje o książce

  • Tytuł oryginału: Machine Learning with Python Cookbook: Practical Solutions from Preprocessing to Deep Learning, 2nd Edition
  • Autorzy: Kyle Gallatin, Dr Chris Albon
  • Tłumaczenie: Robert Górczyński
  • ISBN: 978-83-289-0811-6
  • Rok wydania: 2024
  • Format: 165 x 235 mm
  • Oprawa: miękka
  • Liczba stron: 398
  • Wydawnictwo: Helion S.A.
Uczenie maszynowe w Pythonie. Receptury. Od przygotowania danych do deep learningu. Wydanie II - K. Gallatin

Książka przeznaczona jest dla programistów.

Spis treści

Wprowadzenie

1. Wektor, macierz i tablica

  1. 1.0. Wprowadzenie
  2. 1.1. Tworzenie wektora
  3. 1.2. Tworzenie macierzy
  4. 1.3. Tworzenie macierzy rzadkiej
  5. 1.4. Wstępna alokacja tablicy NumPy
  6. 1.5. Pobieranie elementów
  7. 1.6. Opisywanie macierzy
  8. 1.7. Przeprowadzanie operacji na wszystkich elementach
  9. 1.8. Znajdowanie wartości maksymalnej i minimalnej
  10. 1.9. Obliczanie średniej, wariancji i odchylenia standardowego
  11. 1.10. Zmiana kształtu tablicy
  12. 1.11. Transponowanie wektora lub macierzy
  13. 1.12. Spłaszczanie macierzy
  14. 1.13. Znajdowanie rzędu macierzy
  15. 1.14. Pobieranie przekątnej macierzy
  16. 1.15. Obliczanie śladu macierzy
  17. 1.16. Obliczanie iloczynu skalarnego
  18. 1.17. Dodawanie i odejmowanie macierzy
  19. 1.18. Mnożenie macierzy
  20. 1.19. Odwracanie macierzy
  21. 1.20. Generowanie liczb losowych

2. Wczytywanie danych

  1. 2.0. Wprowadzenie
  2. 2.1. Wczytywanie przykładowego zbioru danych
  3. 2.2. Tworzenie symulowanego zbioru danych
  4. 2.3. Wczytywanie pliku CSV
  5. 2.4. Wczytywanie pliku Excela
  6. 2.5. Wczytywanie pliku JSON
  7. 2.6. Wczytywanie pliku Parquet
  8. 2.7. Wczytywanie pliku Avro
  9. 2.8. Wykonywanie zapytań do bazy danych SQLite
  10. 2.9. Wykonywanie zapytań do zdalnej bazy danych SQL
  11. 2.10. Wczytywanie danych z Google Sheets
  12. 2.11. Wczytywanie danych z kubełka S3
  13. 2.12. Wczytywanie danych nieposiadających struktury

3. Przygotowywanie danych

  1. 3.0. Wprowadzenie
  2. 3.1. Tworzenie ramki danych
  3. 3.2. Opisywanie danych
  4. 3.3. Poruszanie się po ramce danych
  5. 3.4. Pobieranie wierszy na podstawie pewnych warunków
  6. 3.5. Sortowanie wartości
  7. 3.6. Zastępowanie wartości
  8. 3.7. Zmiana nazwy kolumny
  9. 3.8. Znajdowanie wartości minimalnej, maksymalnej, sumy, średniej i liczby elementów w kolumnie
  10. 3.9. Znajdowanie unikatowych wartości
  11. 3.10. Obsługa brakujących wartości
  12. 3.11. Usuwanie kolumn
  13. 3.12. Usuwanie wiersza
  14. 3.13. Usuwanie powielonych wierszy
  15. 3.14. Grupowanie wierszy według wartości
  16. 3.15. Grupowanie wierszy według czasu
  17. 3.16. Agregowanie operacji i danych statystycznych
  18. 3.17. Iterowanie przez kolumnę
  19. 3.18. Wywoływanie funkcji dla wszystkich elementów kolumny
  20. 3.19. Wywoływanie funkcji dla grupy
  21. 3.20. Konkatenacja obiektów typu DataFrame
  22. 3.21. Złączanie obiektów typu DataFrame

4. Obsługa danych liczbowych

  1. 4.0. Wprowadzenie
  2. 4.1. Przeskalowywanie cechy
  3. 4.2. Standaryzowanie cechy
  4. 4.3. Normalizowanie obserwacji
  5. 4.4. Generowanie cech wielomianowych i interakcji
  6. 4.5. Transformacja cech
  7. 4.6. Wykrywanie elementów odstających
  8. 4.7. Obsługa elementów odstających
  9. 4.8. Dyskretyzacja cech
  10. 4.9. Grupowanie obserwacji przy użyciu klastra
  11. 4.10. Usuwanie obserwacji, w których brakuje wartości
  12. 4.11. Uzupełnianie brakujących wartości

5. Obsługa danych kategoryzujących

  1. 5.0. Wprowadzenie
  2. 5.1. Kodowanie nominalnych cech kategoryzujących
  3. 5.2. Kodowanie porządkowych cech kategoryzujących
  4. 5.3. Kodowanie słowników cech
  5. 5.4. Wstawianie brakujących wartości klas
  6. 5.5. Obsługa niezrównoważonych klas

6. Obsługa tekstu

  1. 6.0. Wprowadzenie
  2. 6.1. Oczyszczanie tekstu
  3. 6.2. Przetwarzanie i oczyszczanie danych HTML
  4. 6.3. Usuwanie znaku przestankowego
  5. 6.4. Tokenizacja tekstu
  6. 6.5. Usuwanie słów o małym znaczeniu
  7. 6.6. Stemming słów
  8. 6.7. Oznaczanie części mowy
  9. 6.8. Rozpoznawanie nazwanych jednostek
  10. 6.9. Kodowanie tekstu za pomocą modelu worka słów
  11. 6.10. Określanie wagi słów
  12. 6.11. Używanie wektorów tekstu do obliczania podobieństwa tekstu w zapytaniu wyszukiwania
  13. 6.12. Używanie klasyfikatora analizy sentymentu

7. Obsługa daty i godziny

  1. 7.0. Wprowadzenie
  2. 7.1. Konwertowanie ciągu tekstowego na datę
  3. 7.2. Obsługa stref czasowych
  4. 7.3. Pobieranie daty i godziny
  5. 7.4. Podział danych daty na wiele cech
  6. 7.5. Obliczanie różnicy między datami
  7. 7.6. Kodowanie dni tygodnia
  8. 7.7. Tworzenie cechy opóźnionej w czasie
  9. 7.8. Użycie okien upływającego czasu
  10. 7.9. Obsługa brakujących danych w serii danych zawierających wartości daty i godziny

8. Obsługa obrazów

  1. 8.0. Wprowadzenie
  2. 8.1. Wczytywanie obrazu
  3. 8.2. Zapisywanie obrazu
  4. 8.3. Zmiana wielkości obrazu
  5. 8.4. Kadrowanie obrazu
  6. 8.5. Rozmywanie obrazu
  7. 8.6. Wyostrzanie obrazu
  8. 8.7. Zwiększanie kontrastu
  9. 8.8. Izolowanie kolorów
  10. 8.9. Progowanie obrazu
  11. 8.10. Usuwanie tła obrazu
  12. 8.11. Wykrywanie krawędzi
  13. 8.12. Wykrywanie narożników w obrazie
  14. 8.13. Tworzenie cech w uczeniu maszynowym
  15. 8.14. Użycie histogramu koloru jako cechy
  16. 8.15. Użycie wytrenowanych embeddingów jako cech
  17. 8.16. Wykrywanie obiektów za pomocą OpenCV
  18. 8.17. Klasyfikowanie obrazów za pomocą PyTorch

9. Redukcja wymiarowości za pomocą wyodrębniania cech

  1. 9.0. Wprowadzenie
  2. 9.1. Redukowanie cech za pomocą głównych składowych
  3. 9.2. Redukowanie cech, gdy dane są liniowo nierozłączne
  4. 9.3. Redukowanie cech przez maksymalizację rozłączności klas
  5. 9.4. Redukowanie cech za pomocą rozkładu macierzy
  6. 9.5. Redukowanie cech w rzadkich danych

10. Redukcja wymiarowości za pomocą wyboru cech

  1. 10.0. Wprowadzenie
  2. 10.1. Progowanie wariancji cechy liczbowej
  3. 10.2. Progowanie wariancji cechy binarnej
  4. 10.3. Obsługa wysoce skorelowanych cech
  5. 10.4. Usuwanie nieistotnych dla klasyfikacji cech
  6. 10.5. Rekurencyjne eliminowanie cech

11. Ocena modelu

  1. 11.0. Wprowadzenie
  2. 11.1. Modele sprawdzianu krzyżowego
  3. 11.2. Tworzenie modelu regresji bazowej
  4. 11.3. Tworzenie modelu klasyfikacji bazowej
  5. 11.4. Ocena prognoz klasyfikatora binarnego
  6. 11.5. Ocena progowania klasyfikatora binarnego
  7. 11.6. Ocena prognoz klasyfikatora wieloklasowego
  8. 11.7. Wizualizacja wydajności klasyfikatora
  9. 11.8. Ocena modelu regresji
  10. 11.9. Ocena modelu klasteryzacji
  11. 11.10. Definiowanie niestandardowych współczynników oceny modelu
  12. 11.11. Wizualizacja efektu wywieranego przez wielkość zbioru uczącego
  13. 11.12. Tworzenie raportu tekstowego dotyczącego współczynnika oceny
  14. 11.13. Wizualizacja efektu wywieranego przez zmianę wartości hiperparametrów

12. Wybór modelu

  1. 12.0. Wprowadzenie
  2. 12.1. Wybór najlepszych modeli przy użyciu wyczerpującego wyszukiwania
  3. 12.2. Wybór najlepszych modeli za pomocą przeszukiwania losowego
  4. 12.3. Wybór najlepszych modeli z wielu algorytmów uczenia maszynowego
  5. 12.4. Wybór najlepszych modeli na etapie przygotowywania danych
  6. 12.5. Przyspieszanie wyboru modelu za pomocą równoległości
  7. 12.6. Przyspieszanie wyboru modelu przy użyciu metod charakterystycznych dla algorytmu
  8. 12.7. Ocena wydajności po wyborze modelu

13. Regresja liniowa

  1. 13.0. Wprowadzenie
  2. 13.1. Wyznaczanie linii
  3. 13.2. Obsługa wpływu interakcji
  4. 13.3. Wyznaczanie zależności nieliniowej
  5. 13.4. Redukowanie wariancji za pomocą regularyzacji
  6. 13.5. Redukowanie cech za pomocą regresji metodą LASSO

14. Drzewa i lasy

  1. 14.0. Wprowadzenie
  2. 14.1. Trenowanie klasyfikatora drzewa decyzyjnego
  3. 14.2. Trenowanie regresora drzewa decyzyjnego
  4. 14.3. Wizualizacja modelu drzewa decyzyjnego
  5. 14.4. Trenowanie klasyfikatora losowego lasu
  6. 14.5. Trenowanie regresora losowego lasu
  7. 14.6. Ocena losowego lasu za pomocą estymatora błędu out-of-bag
  8. 14.7. Identyfikacja ważnych cech w losowych lasach
  9. 14.8. Wybór ważnych cech w losowym lesie
  10. 14.9. Obsługa niezrównoważonych klas
  11. 14.10. Kontrolowanie wielkości drzewa
  12. 14.11. Poprawa wydajności za pomocą wzmocnienia
  13. 14.12. Wytrenowanie modelu XGBoost
  14. 14.13. Poprawianie wydajności w czasie rzeczywistym za pomocą LightGBM

15. Algorytm k najbliższych sąsiadów

  1. 15.0. Wprowadzenie
  2. 15.1. Wyszukiwanie najbliższych sąsiadów obserwacji
  3. 15.2. Tworzenie klasyfikatora k najbliższych sąsiadów
  4. 15.3. Ustalanie najlepszej wielkości sąsiedztwa
  5. 15.4. Tworzenie klasyfikatora najbliższych sąsiadów opartego na promieniu
  6. 15.5. Wyszukiwanie przybliżonych najbliższych sąsiadów
  7. 15.6. Ocena przybliżonych najbliższych sąsiadów

16. Regresja logistyczna

  1. 16.0. Wprowadzenie
  2. 16.1. Trenowanie klasyfikatora binarnego
  3. 16.2. Trenowanie klasyfikatora wieloklasowego
  4. 16.3. Redukcja wariancji poprzez regularyzację
  5. 16.4. Trenowanie klasyfikatora na bardzo dużych danych
  6. 16.5. Obsługa niezrównoważonych klas

17. Maszyna wektora nośnego

  1. 17.0. Wprowadzenie
  2. 17.1. Trenowanie klasyfikatora liniowego
  3. 17.2. Obsługa liniowo nierozdzielnych klas przy użyciu funkcji jądra
  4. 17.3. Określanie prognozowanego prawdopodobieństwa
  5. 17.4. Identyfikacja wektorów nośnych
  6. 17.5. Obsługa niezrównoważonych klas

18. Naiwny klasyfikator bayesowski

  1. 18.0. Wprowadzenie
  2. 18.1. Trenowanie klasyfikatora dla cech ciągłych
  3. 18.2. Trenowanie klasyfikatora dla cech dyskretnych lub liczebnych
  4. 18.3. Trenowanie naiwnego klasyfikatora bayesowskiego dla cech binarnych
  5. 18.4. Kalibrowanie prognozowanego prawdopodobieństwa

19. Klasteryzacja

  1. 19.0. Wprowadzenie
  2. 19.1. Klasteryzacja za pomocą k średnich
  3. 19.2. Przyspieszanie klasteryzacji za pomocą k średnich
  4. 19.3. Klasteryzacja za pomocą algorytmu meanshift
  5. 19.4. Klasteryzacja za pomocą algorytmu DBSCAN
  6. 19.5. Klasteryzacja za pomocą łączenia hierarchicznego

20. Tensory w PyTorch

  1. 20.0. Wprowadzenie
  2. 20.1. Utworzenie tensora
  3. 20.2. Utworzenie tensora z poziomu NumPy
  4. 20.3. Utworzenie tensora rzadkiego
  5. 20.4. Wybór elementów tensora
  6. 20.5. Opisanie tensora
  7. 20.6. Przeprowadzanie operacji na elementach tensora
  8. 20.7. Wyszukiwanie wartości minimalnej i maksymalnej
  9. 20.8. Zmiana kształtu tensora
  10. 20.9. Transponowanie tensora
  11. 20.10. Spłaszczanie tensora
  12. 20.11. Obliczanie iloczynu skalarnego
  13. 20.12. Mnożenie tensorów

21. Sieci neuronowe

  1. 21.0. Wprowadzenie
  2. 21.1. Używanie silnika Autograd frameworka PyTorch
  3. 21.2. Przygotowywanie danych dla sieci neuronowej
  4. 21.3. Projektowanie sieci neuronowej
  5. 21.4. Trenowanie klasyfikatora binarnego
  6. 21.5. Trenowanie klasyfikatora wieloklasowego
  7. 21.6. Trenowanie regresora
  8. 21.7. Generowanie prognoz
  9. 21.8. Wizualizacja historii trenowania
  10. 21.9. Redukcja nadmiernego dopasowania za pomocą regularyzacji wagi
  11. 21.10. Redukcja nadmiernego dopasowania za pomocą techniki wcześniejszego zakończenia procesu uczenia
  12. 21.11. Redukcja nadmiernego dopasowania za pomocą techniki porzucenia
  13. 21.12. Zapisywanie postępu modelu uczącego
  14. 21.13. Dostrajanie sieci neuronowej
  15. 21.14. Wizualizacja sieci neuronowej

22. Sieci neuronowe dla danych pozbawionych struktury

  1. 22.0. Wprowadzenie
  2. 22.1. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji obrazów
  3. 22.2. Wytrenowanie sieci neuronowej na potrzeby klasyfikacji tekstu
  4. 22.3. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji obrazu
  5. 22.4. Dostrajanie wytrenowanego modelu na potrzeby klasyfikacji tekstu

23. Zapisywanie, wczytywanie i udostępnianie wytrenowanych modeli

  1. 23.0. Wprowadzenie
  2. 23.1. Zapisywanie i wczytywanie modelu biblioteki scikit-learn
  3. 23.2. Zapisywanie i wczytywanie modelu biblioteki TensorFlow
  4. 23.3. Zapisywanie i wczytywanie modelu PyTorch
  5. 23.4. Udostępnianie modeli scikit-learn
  6. 23.5. Udostępnianie modeli TensorFlow
  7. 23.6. Udostępnianie modeli PyTorch za pomocą Seldon

Książka - Autor Kyle Gallatin, Chris Albon
Książka - ISBN 978-83-289-0811-6
Książka - Oprawa miękka
Książka - Wydawnictwo Helion SA
Tematyka Python
Tematyka Programowanie
Szerokość opakowania 16.5 cm
Wysokość opakowania 23.5 cm
Głębokość opakowania 2 cm
Masa opakowania 0.623 kg

Jako pierwszy zadaj pytanie dotyczące tego produktu!

Klienci którzy zakupili ten produkt kupili również:

Produkty z tej samej kategorii: