Emacs Artificial General Intelligence Algorithmic Game Theory: Prediction Markets (po polsku) Systemy Inteligentnych Agentów
|
NLP.Statystyczne HistoryHide minor edits - Show changes to output Added lines 10-14:
Z książki polecanej przez [[http://www.opencyc.org]]: [[http://www.uni-giessen.de/~g91062/Seminare/gk-cl/Allen95/al1995co.htm | Allen 1995: Natural Language Understanding]] / [[http://www.uni-giessen.de/~g91062/Seminare/gk-cl/Allen95/al199507.htm | Chapter 7 - Ambiguity Resolution: Statistical Methods]] Added lines 20-28:
Zadanie: przy jakich założeniach można słusznie użyć w algorytmie Viterbiego wzoru: P(C'_t_' = s'_i_' | C'_t-1_' = s'_j_', O'_t_' = w'_t_') a przy jakich wzoru na prawdopodobieństwa przejścia "poszerzonego" łańcucha Markowa: P(C'_t_' = s'_i_', O'_t+1_' = w'_t+1_' | C'_t-1_' = s'_j_', O'_t_' = w'_t_') Changed line 19 from:
są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o [@#C@] stanach, a to:
są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o [@#C@] stanach, a druga łańcuchowi Markowa o ''de facto'' [@#C * #O@] stanach), to w algorytmie Viterbiego można stosować je zamiennie, otrzymując rozwiązanie dla odpowiedniego modelu. Changed lines 9-19 from:
Bardzo ciekawy kurs on-line "Corpus driven Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]] to:
Bardzo ciekawy kurs on-line "Corpus driven Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]] !!!! [[#markow]] Uwaga o ukrytych łańcuchach Markowa Rozdział [[http://www.cs.rochester.edu/u/james/CSC248/Lec8.pdf | Lecture 8: Tagging Applications]] kursu "Corpus driven LP" zawiera rozwiązanie (jedno z możliwych) zadania 10 z listy 3 ćw. w kontekscie tagowania tekstu. Zwróć uwagę na komentarz '''Why do we always apply Bayes’ Rule?''' omawiający sytuację, która wynikła u nas pod koniec ćwiczeń. Zauważ jednak, że pomimo, że wartości: P(C'_t_' = s'_i_' | C'_t-1_' = s'_j_') * P(O'_t_' = w'_t_' | C'_t_' = s'_i_') oraz P(C'_t_' = s'_i_' | C'_t-1_' = s'_j_', O'_t_' = w'_t_') są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o [@#C@] stanach, a druga Changed line 9 from:
Bardzo ciekawy kurs on-line "Corpus to:
Bardzo ciekawy kurs on-line "Corpus driven Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]] Added lines 6-9:
Statystyka zdarzeń rzadkich: Accurate Methods for the Statistics of Surprise and Coincidence (Ted Dunning) [[http://citeseer.ist.psu.edu/29096.html]] Bardzo ciekawy kurs on-line "Corpus Based Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]] Added lines 1-5:
Rozdział [[http://nlp.stanford.edu/fsnlp/promo/colloc.pdf | Collocations]] z książki [[http://nlp.stanford.edu/fsnlp/ | Foundations of Statistical NLP]]. Wprowadzenie do rachunku prawdopodobieństwa [[http://nlp.stanford.edu/fsnlp/dontpanic.pdf | The Linguist's Guide To Statistic]] (wersja [[http://www.ofai.at/~brigitte.krenn/papers/stat_nlp.ps.gz | ps.gz]]). |