Recent Changes · Search:

Functional Programming

Type Inference

Toss

  • (incorporates former Speagram)

Emacs

Kurs Pascala

Artificial General Intelligence

AI:

Algorithmic Game Theory: Prediction Markets (po polsku)

Programming in Java

kurs pracy w systemie Linux

Evolutionary Algorithms

Animation

Data Stores and Data Mining

Language Understanding

Systemy Inteligentnych Agentów

Przetwarzanie Języka Naturalnego

Programowanie Funkcjonalne

PmWiki

pmwiki.org

add user

edit SideBar

NLP.Statystyczne History

Hide minor edits - Show changes to output

Added lines 10-14:

Z książki polecanej przez [[http://www.opencyc.org]]:
[[http://www.uni-giessen.de/~g91062/Seminare/gk-cl/Allen95/al1995co.htm | Allen 1995: Natural Language Understanding]] /
[[http://www.uni-giessen.de/~g91062/Seminare/gk-cl/Allen95/al199507.htm | Chapter 7 - Ambiguity Resolution: Statistical Methods]]

November 26, 2006, at 10:28 PM by 83.27.166.130 -
Added lines 20-28:

Zadanie: przy jakich założeniach można słusznie użyć w algorytmie Viterbiego wzoru:

  P(C'_t_' = s'_i_' | C'_t-1_' = s'_j_', O'_t_' = w'_t_')

a przy jakich wzoru na prawdopodobieństwa przejścia "poszerzonego" łańcucha Markowa:

  P(C'_t_' = s'_i_', O'_t+1_' = w'_t+1_' | C'_t-1_' = s'_j_', O'_t_' = w'_t_')

Changed line 19 from:
są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o [@#C@] stanach, a druga
to:
są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o [@#C@] stanach, a druga łańcuchowi Markowa o ''de facto'' [@#C * #O@] stanach), to  w algorytmie Viterbiego można stosować je zamiennie, otrzymując rozwiązanie dla odpowiedniego modelu.
Changed lines 9-19 from:
Bardzo ciekawy kurs on-line "Corpus driven Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]]
to:
Bardzo ciekawy kurs on-line "Corpus driven Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]]
!!!! [[#markow]] Uwaga o ukrytych łańcuchach Markowa
Rozdział [[http://www.cs.rochester.edu/u/james/CSC248/Lec8.pdf | Lecture 8: Tagging Applications]] kursu "Corpus driven LP" zawiera rozwiązanie (jedno z możliwych) zadania 10 z listy 3 ćw. w kontekscie tagowania tekstu. Zwróć uwagę na komentarz '''Why do we always apply Bayes’ Rule?''' omawiający sytuację, która wynikła u nas pod koniec ćwiczeń. Zauważ jednak, że pomimo, że wartości:

  P(C'_t_' = s'_i_' | C'_t-1_' = s'_j_') * P(O'_t_' = w'_t_' | C'_t_' = s'_i_')

oraz

  P(C'_t_' = s'_i_' | C'_t-1_' = s'_j_', O'_t_' = w'_t_')

są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o [@#C@] stanach, a druga
November 24, 2006, at 01:47 AM by 83.27.147.171 -
Changed line 9 from:
Bardzo ciekawy kurs on-line "Corpus Based Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]]
to:
Bardzo ciekawy kurs on-line "Corpus driven Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]]
November 24, 2006, at 01:45 AM by 83.27.147.171 -
Added lines 6-9:
Statystyka zdarzeń rzadkich: Accurate Methods for the Statistics of Surprise and Coincidence (Ted Dunning)
[[http://citeseer.ist.psu.edu/29096.html]]

Bardzo ciekawy kurs on-line "Corpus Based Language Processing" [[http://www.cs.rochester.edu/u/james/CSC248/]]
November 24, 2006, at 01:42 AM by 83.27.147.171 -
Added lines 1-5:
Rozdział [[http://nlp.stanford.edu/fsnlp/promo/colloc.pdf | Collocations]] z książki [[http://nlp.stanford.edu/fsnlp/ | Foundations of Statistical NLP]].

Wprowadzenie do rachunku prawdopodobieństwa [[http://nlp.stanford.edu/fsnlp/dontpanic.pdf | The Linguist's Guide To Statistic]]
(wersja [[http://www.ofai.at/~brigitte.krenn/papers/stat_nlp.ps.gz | ps.gz]]).

Edit · History · Print · Recent Changes · Search · Links
Page last modified on January 18, 2007, at 02:16 AM