From the Lukasz Stafiniak pages
Eksperyment X=x, decyzja a=d(x), prawdziwy stan natury \theta, strata L(\theta, a) = L(\theta, d(X)). Funkcja ryzyka R(\theta, d) = E_\theta L(\theta, d(X)) = \int_X L(\theta, d(x)) dP_\theta
Zasada Bayesa: \theta jest zmienną losową o zadanym rozkładzie \tau = rozkład a priori. Ryzyko bayesowskie: r(\tau, d) = E_\tau R(\theta, d) = \int_\Theta R(\theta, d) d\tau(\theta). d_0 jest funkcją bayesowską ze względu na \tau gdy r(\tau, d_0) = {inf}_{d \in D} r(\tau, d).
d_0 jest minimaksową funkcją decyzyjną gdy {sup}_{\theta \in \Theta} R(\theta, d_0) = {inf}_{d \in D} {sup}_{\theta \in \Theta} R(\theta, d).
Najostrożniejsza strategia: traktuje naturę jako inteligentnego gracza o antagonistycznym nastawieniu.
A Simple Introduction to Dynamic Programming in Macroeconomic Models (Ian King) [1] (sterowanie z czasem dyskretnym)
Możesz też rzucić okiem na: Applications of Optimal Control Theory Using the Pontryagin Maximum Principle [2] (sterowanie z czasem ciągłym)
http://en.wikipedia.org/wiki/Markov_chain
Modeling agents’ beliefs and decision making processes in games [3], Avi Pfeffer
Copyright © 2005–2006 the Main wiki and its authors
Retrieved from http://ii.uni.wroc.pl/~lukstafi/pmwiki/index.php?n=Agents.DecisionAndControl
Page last modified on June 17, 2007, at 01:36 PM