Recent Changes · Search:

Functional Programming

Type Inference

Toss

  • (incorporates former Speagram)

Emacs

Kurs Pascala

Artificial General Intelligence

AI:

Algorithmic Game Theory: Prediction Markets (po polsku)

Programming in Java

kurs pracy w systemie Linux

Evolutionary Algorithms

Animation

Data Stores and Data Mining

Language Understanding

Systemy Inteligentnych Agentów

Przetwarzanie Języka Naturalnego

Programowanie Funkcjonalne

PmWiki

pmwiki.org

add user

edit SideBar

NLP.Statystyczne History

Hide minor edits - Show changes to markup

Added lines 10-14:

Z książki polecanej przez http://www.opencyc.org: Allen 1995: Natural Language Understanding / Chapter 7 - Ambiguity Resolution: Statistical Methods

November 26, 2006, at 10:28 PM by 83.27.166.130 -
Added lines 20-28:

Zadanie: przy jakich założeniach można słusznie użyć w algorytmie Viterbiego wzoru:

 P(Ct = si | Ct-1 = sj, Ot = wt)

a przy jakich wzoru na prawdopodobieństwa przejścia “poszerzonego” łańcucha Markowa:

 P(Ct = si, Ot+1 = wt+1 | Ct-1 = sj, Ot = wt)
Changed line 19 from:

są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o #C stanach, a druga

to:

są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o #C stanach, a druga łańcuchowi Markowa o de facto #C * #O stanach), to w algorytmie Viterbiego można stosować je zamiennie, otrzymując rozwiązanie dla odpowiedniego modelu.

Changed lines 9-19 from:

Bardzo ciekawy kurs on-line “Corpus driven Language Processing” http://www.cs.rochester.edu/u/james/CSC248/

to:

Bardzo ciekawy kurs on-line “Corpus driven Language Processing” http://www.cs.rochester.edu/u/james/CSC248/

Uwaga o ukrytych łańcuchach Markowa

Rozdział Lecture 8: Tagging Applications kursu “Corpus driven LP” zawiera rozwiązanie (jedno z możliwych) zadania 10 z listy 3 ćw. w kontekscie tagowania tekstu. Zwróć uwagę na komentarz Why do we always apply Bayes’ Rule? omawiający sytuację, która wynikła u nas pod koniec ćwiczeń. Zauważ jednak, że pomimo, że wartości:

 P(Ct = si | Ct-1 = sj) * P(Ot = wt | Ct = si)

oraz

 P(Ct = si | Ct-1 = sj, Ot = wt)

są różne, odpowiadają różnym modelom i różnym założeniom upraszczającym (pierwsza odpowiada łańcuchowi Markowa o #C stanach, a druga

November 24, 2006, at 01:47 AM by 83.27.147.171 -
Changed line 9 from:

Bardzo ciekawy kurs on-line “Corpus Based Language Processing” http://www.cs.rochester.edu/u/james/CSC248/

to:

Bardzo ciekawy kurs on-line “Corpus driven Language Processing” http://www.cs.rochester.edu/u/james/CSC248/

November 24, 2006, at 01:45 AM by 83.27.147.171 -
Added lines 6-9:

Statystyka zdarzeń rzadkich: Accurate Methods for the Statistics of Surprise and Coincidence (Ted Dunning) http://citeseer.ist.psu.edu/29096.html

Bardzo ciekawy kurs on-line “Corpus Based Language Processing” http://www.cs.rochester.edu/u/james/CSC248/

November 24, 2006, at 01:42 AM by 83.27.147.171 -
Added lines 1-5:

Rozdział Collocations z książki Foundations of Statistical NLP.

Wprowadzenie do rachunku prawdopodobieństwa The Linguist’s Guide To Statistic (wersja ps.gz).

Edit · History · Print · Recent Changes · Search · Links
Page last modified on January 18, 2007, at 02:16 AM