Emacs Artificial General Intelligence Algorithmic Game Theory: Prediction Markets (po polsku) Systemy Inteligentnych Agentów
|
DataMining.Zadanie5 HistoryHide minor edits - Show changes to output June 20, 2008, at 01:32 PM
by - wersja podstawowa
Changed lines 8-10 from:
Dokonaj wizualizacji obszarów decyzyjnych dla kilku klasyfikatorów, które uznasz za ciekawe, np. porównując klasyfikator idealnie dopasowany do danych uczących z najlepszym według walidacji krzyżowej. to:
Dokonaj wizualizacji obszarów decyzyjnych dla kilku klasyfikatorów, które uznasz za ciekawe, np. porównując klasyfikator idealnie dopasowany do danych uczących z najlepszym według walidacji krzyżowej. W wersji podstawowej zadania obowiązuje punkt 1. oraz: punkt 2. lub podpunkt 3.2. Changed line 2 from:
# Przeprowadź klasyfikację zgodnie z wytycznymi [[http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf | A Practical Guide to Support Vector to:
# Przeprowadź klasyfikację zgodnie z wytycznymi [[http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf | A Practical Guide to Support Vector Classification]]. Wykorzystaj interfejs do biblioteki LIBSVM z pakietu "e1071". May 30, 2008, at 04:46 PM
by - kroswalidacja SVM
Changed lines 1-4 from:
# (Dopasowanie i przetrenowanie) Zbadaj błąd klasyfikacji na zbiorze uczącym i testowym dla kilku zbiorów danych dla metod: estymatora na bazie regresji liniowej, k najbliższych sąsiadów dla k=1 i 10, # ## Porównaj techniki podziału węzłów "information" (negentropia {$- p * log p$}) oraz "gini" (indeks Gini {$p (1 - p)$}) # Wizualizacja to:
# (Dopasowanie i przetrenowanie) Zbadaj błąd klasyfikacji na zbiorze uczącym i testowym dla kilku zbiorów danych dla metod: estymatora na bazie regresji liniowej, k najbliższych sąsiadów dla k=1 i 10, (może też: naiwnego klasyfikatora bayesowskiego). Opisz wnioski dotyczące trudności danego zadania klasyfikacji i "zdolności uogólnienia" danej metody klasyfikacji. # Przeprowadź klasyfikację zgodnie z wytycznymi [[http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf | A Practical Guide to Support Vector Classification]]. Wykorzystaj interfejs do biblioteki LIBSVM z pakietu "e1071". # Eksperymenty z pakietami "rpart" i "randomForest": ## Porównaj techniki podziału węzłów "information" (negentropia {$- p * log p$}) oraz "gini" (indeks Gini {$p (1 - p)$}) przy wykorzystaniu "rpart". ## Porównaj jakość klasyfikatora "randomForest" z jakością klasyfikatorów jakie uzyskałeś metodą "svm" lub "nnet" (sieć neuronowa) lub "knn" (najbliższych sąsiadów) dla różnych parametrów (np. dla różnych wartości C przy SVM lub dla różnych k przy KNN). # Wizualizacja i manipulacja drzewami w KLIMT. (nieobowiązkowe -- temat wolny) Dokonaj wizualizacji obszarów decyzyjnych dla kilku klasyfikatorów, które uznasz za ciekawe, np. porównując klasyfikator idealnie dopasowany do danych uczących z najlepszym według walidacji krzyżowej. May 23, 2008, at 03:12 AM
by - node split
Changed lines 2-3 from:
# Eksperymenty z pakietami " to:
# Eksperymenty z pakietami "rpart" i "randomForest" ## Porównaj techniki podziału węzłów "information" (negentropia {$- p * log p$}) oraz "gini" (indeks Gini {$p (1 - p)$}) May 16, 2008, at 07:50 AM
by - przetrenowanie
Added lines 1-3:
# (Dopasowanie i przetrenowanie) Zbadaj błąd klasyfikacji na zbiorze uczącym i testowym dla kilku zbiorów danych dla metod: estymatora na bazie regresji liniowej, k najbliższych sąsiadów dla k=1 i 10, naiwnego klasyfikatora bayesowskiego. Opisz wnioski dotyczące trudności danego zadania klasyfikacji i "zdolności uogólnienia" danej metody klasyfikacji. # Eksperymenty z pakietami "tree" i "randomForest" # Wizualizacja i manipulacja drzewami w KLIMT |