Python | MATLAB | R 心理认知数学图形模型推断

🎯要点

🎯图形模型推断二元过程概率:🖊模型1:确定成功率 θ 的后验分布 | 🖊模型2:确定两个概率差 δ \delta δ 的后验分布 | 🖊模型3:确定底层概率,后验预测 | 🖊模型4:推断概率分布和试验次数。🎯图形模型高斯推理:🖊模型5:推断高斯分布生成的数据的平均值和标准差 | 🖊模型6:标准差和观察值添加精度先验,推断高斯平均值 | 🖊模型7:重复测量推断智商。🎯时间和记忆关系 | 🎯心里信号检测 | 🎯外部物理刺激内部心理感觉 | 🎯超感知学 | 🎯语义相关连续回忆 | 🎯尺度不变记忆、感知和学习 | 🎯风险判断和偏好个体心里差异 | 🎯多维心理刺激个体相似性。

k 次成功
试验 n 次
概率分布 θ
图形模型 1

模型1 分布:

θ ∼ Beta ⁡ ( 1 , 1 ) k ∼ Binomial ⁡ ( θ , n ) \begin{aligned} & \theta \sim \operatorname{Beta}(1,1) \\ & k \sim \operatorname{Binomial}(\theta, n)\end{aligned} θBeta(1,1)kBinomial(θ,n)

图形模型 2

模型2 分布:

k 1 ∼ Binomial ⁡ ( θ 1 , n 1 ) k 2 ∼ Binomial ⁡ ( θ 2 , n 2 ) θ 1 ∼ Beta ⁡ ( 1 , 1 ) θ 2 ∼ Beta ⁡ ( 1 , 1 ) δ ← θ 1 − θ 2 \begin{aligned} k_1 & \sim \operatorname{Binomial}\left(\theta_1, n_1\right) \\ k_2 & \sim \operatorname{Binomial}\left(\theta_2, n_2\right) \\ \theta_1 & \sim \operatorname{Beta}(1,1) \\ \theta_2 & \sim \operatorname{Beta}(1,1) \\ \delta & \leftarrow \theta_1-\theta_2\end{aligned} k1k2θ1θ2δBinomial(θ1,n1)Binomial(θ2,n2)Beta(1,1)Beta(1,1)θ1θ2

底层概率
试验n1次
试验n2 次
k1次成功
θ
k2次成功
图形模型 3

模型3 分布:

k 1 ∼ Binomial ⁡ ( θ , n 1 ) k 2 ∼ Binomial ⁡ ( θ , n 2 ) θ ∼ Beta ⁡ ( 1 , 1 ) \begin{aligned} k_1 & \sim \operatorname{Binomial}\left(\theta, n_1\right) \\ k_2 & \sim \operatorname{Binomial}\left(\theta, n_2\right) \\ \theta & \sim \operatorname{Beta}(1,1)\end{aligned} k1k2θBinomial(θ,n1)Binomial(θ,n2)Beta(1,1)

联合分布
成功次数
已知 ki 次成功
推断概率θ
推断试验n次
图形模型4

模型4 分布:

k i ∼ Binomial ⁡ ( θ , n ) θ ∼ Beta ⁡ ( 1 , 1 ) n ∼ Categorical ⁡ ( 1 n max ⁡ , … , 1 n max ⁡ ⏟ m ) \begin{aligned} k_i & \sim \operatorname{Binomial}(\theta, n) \\ \theta & \sim \operatorname{Beta}(1,1) \\ n & \sim \operatorname{Categorical}(\underbrace{\frac{1}{n_{\max }}, \ldots, \frac{1}{n_{\max }}}_m)\end{aligned} kiθnBinomial(θ,n)Beta(1,1)Categorical(m nmax1,,nmax1)

🎯图形模型高斯推理:🖊模型5:推断高斯分布生成的数据的平均值和标准差 | 🖊模型6:标准差和观察值添加精度先验,推断高斯平均值 | 🖊模型7:重复测量推断智商

高斯分布
观察值
n次观察值xi
高斯平均值 μ
标准差 σ
图形模型5

模型5 分布:

μ ∼ Gaussian ⁡ ( 0 , 0.001 ) σ ∼ Uniform ⁡ ( 0 , 10 ) x i ∼ Gaussian ⁡ ( μ , 1 σ 2 ) \begin{aligned} \mu & \sim \operatorname{Gaussian}(0,0.001) \\ \sigma & \sim \operatorname{Uniform}(0,10) \\ x_i & \sim \operatorname{Gaussian}\left(\mu, \frac{1}{\sigma^2}\right)\end{aligned} μσxiGaussian(0,0.001)Uniform(0,10)Gaussian(μ,σ21)

图形模型6

模型6分布:

μ ∼ Gaussian ⁡ ( 0 , 0.001 ) λ i ∼ Gamma ⁡ ( 0.001 , 0.001 ) σ i ← 1 / λ i x i ∼ Gaussian ⁡ ( μ , λ i ) \begin{aligned} \mu & \sim \operatorname{Gaussian}(0,0.001) \\ \lambda_i & \sim \operatorname{Gamma}(0.001,0.001) \\ \sigma_i & \leftarrow 1 / \sqrt{\lambda_i} \\ x_i & \sim \operatorname{Gaussian}\left(\mu, \lambda_i\right)\end{aligned} μλiσixiGaussian(0,0.001)Gamma(0.001,0.001)1/λi Gaussian(μ,λi)

观测人群
测试
平均值μi
测量数据 xij
标准差 σ
图形模型7

模型7分布:

μ i ∼ Uniform ⁡ ( 0 , 300 ) σ ∼ Uniform ⁡ ( 0 , 100 ) x i j ∼ Gaussian ⁡ ( μ i , 1 σ 2 ) \begin{aligned} \mu_i & \sim \operatorname{Uniform}(0,300) \\ \sigma & \sim \operatorname{Uniform}(0,100) \\ x_{i j} & \sim \operatorname{Gaussian}\left(\mu_i, \frac{1}{\sigma^2}\right)\end{aligned} μiσxijUniform(0,300)Uniform(0,100)Gaussian(μi,σ21)

🎯数据分析:🖊模型8:计算皮尔逊相关系数

相关系数
观察值 xi
平均值 μ
后验分布 r
标准差 σ
图形模型8

模型8 分布:

μ 1 , μ 2 ∼ Gaussian ⁡ ( 0 , 0.001 ) σ 1 , σ 2 ∼ InvSqrtGamma ⁡ ( 0.001 , 0.001 ) r ∼ Uniform ⁡ ( − 1 , 1 ) x i ∼ MvGaussian ⁡ ( ( μ 1 , μ 2 ) , [ σ 1 2 r σ 1 σ 2 r σ 1 σ 2 σ 2 2 ] − 1 ) \begin{aligned} \mu_1, \mu_2 & \sim \operatorname{Gaussian}(0,0.001) \\ \sigma_1, \sigma_2 & \sim \operatorname{InvSqrtGamma}(0.001,0.001) \\ r & \sim \operatorname{Uniform}(-1,1) \\ x _i & \sim \operatorname{MvGaussian}\left(\left(\mu_1, \mu_2\right),\left[\begin{array}{cc}\sigma_1^2 & r \sigma_1 \sigma_2 \\ r \sigma_1 \sigma_2 & \sigma_2^2\end{array}\right]^{-1}\right)\end{aligned} μ1,μ2σ1,σ2rxiGaussian(0,0.001)InvSqrtGamma(0.001,0.001)Uniform(1,1)MvGaussian((μ1,μ2),[σ12rσ1σ2rσ1σ2σ22]1)

🎯时间和记忆关系 | 🎯心里信号检测 | 🎯外部物理刺激内部心理感觉 | 🎯超感知学 | 🎯语义相关连续回忆 | 🎯尺度不变记忆、感知和学习 | 🎯风险判断和偏好个体心里差异 | 🎯多维心理刺激个体相似性

🍇Python后验分布采样计算

贝叶斯计算由一系列方法组成,这些方法可以帮助我们从几乎所有后验分布中采样点,从中我们可以对感兴趣的参数进行点估计。

💦方法一

让我们从一个例子开始,如果我们想从后验分布 f(x) 中绘制点,它具有以下函数形式:
f ( x ) = x 1.7 ( 1 − x 1 + x ) 5.3 f(x)=x^{1.7}\left(\frac{1-x}{1+x}\right)^{5.3} f(x)=x1.7(1+x1x)5.3
我们称这个 f(x) 为目标分布/密度,然后我们提出一个更简单的分布(候选分布),我们可以从中采样点。我们使用均匀分布 g(x),希望当将 g(x) 与常数 M 相乘时,Mg(x) 可以包裹 f(x)。此时,M 很容易被选为 f(x) 的最大值。

现在我们首先从另一个均匀分布 Uniform(0,1) 中独立采样,我们将采样点表示为 u。我们还从候选分布 g(x) 中采样,并将采样点表示为 y。我们测试采样点 u 是否符合以下标准:
u ≤ 1 M f ( y ) g ( y ) u \leq \frac{1}{M} \frac{f(y)}{g(y)} uM1g(y)f(y)
如果符合,我们将 y 视为目标分布的样本,否则,我们拒绝 y。乍一看,这一步可能很难理解。其背后的想法是,如果有一个区域,比如 [0.2,0.3],其中目标密度 f(x) 的密度非常高,那么该区域内的 f(y)/M*g(y) 也会很高,可能接近 1。由于 u 是从标准均匀分布中随机抽取的(u 只是用来控制是拒绝还是接受 y),这个指标更有可能为真,从而导致接受采样的 y。

💦代码

x = np.linspace(0,1,1000)
f_x = x**1.7*((1-x)/(1+x))**5.3
M = f_x.max()
def f(x):
    return x**1.7*((1-x)/(1+x))**5.3
def g(x):
    return uniform.pdf(x,loc=0,scale=1)

n = 2500
u = uniform.rvs(loc=0,scale=1,size=n,random_state=1)
y = uniform.rvs(loc=0,scale=1,size=n,random_state=2)
f_y = f(y)
g_y = g(y)
acc_or_rej = u <= f_y / (M * g_y)
accepted_y = y[acc_or_rej]
sns.histplot(accepted_y)

估计的目标分布可以绘制如下(图略)。

💦方法二:

蒙特卡罗方法代表了一类广泛的算法,这些算法依赖于重复随机抽样来估计所需的数量。该数量可能是圆周率值,也可能是陌生函数形式的积分。蒙特卡罗最经典的例子是估计圆周率的值,我们首先从两个标准均匀分布中随机抽取 x 和 y,并询问 x 2 + y 2 x^2+y^2 x2+y2​ 是否 < 1,如果答案为真,则将计数器加 1。在随机抽样结束时,我们可以计算计数器与总迭代次数的比率(如果使用正方形和内切圆的面积公式,则应为 pi/4)。

马尔可夫链是一个随机过程,其中当前值仅取决于其直接前一个值。我非常喜欢的一个简单例子是天气预报,如果我们假设一天的天气有三种可能的状态(晴天、多云、下雨),我们有一个初始分布,其中 p(晴天)=0.6、p(多云)=0.3 和 p(下雨)=0.1,现在给定一个转换核 K,它是一个矩阵
(  晴天   阴天   雨天   晴天  0.5 0.3 0.2  阴天  0.3 0.5 0.2  雨天  0.2 0.4 0.4 ) \left(\begin{array}{cccc} & \text { 晴天 } & \text { 阴天 } & \text { 雨天 } \\ \text { 晴天 } & 0.5 & 0.3 & 0.2 \\ \text { 阴天 } & 0.3 & 0.5 & 0.2 \\ \text { 雨天 } & 0.2 & 0.4 & 0.4 \end{array}\right)  晴天  阴天  雨天  晴天 0.50.30.2 阴天 0.30.50.4 雨天 0.20.20.4
我们能够使用初始分布和转换内核导出任意一天的状态分布。当我们继续这样做时,如果状态分布保持不变,它就会达到平稳分布。

虽然马尔可夫链的离散场景更容易理解,但我们最终需要将其推广到状态空间无限的连续情况,这意味着我们将拥有无限多个状态,而不是只有三个状态(晴天、多云、下雨)。所以我们需要使用分布来表示每个时间点的状态分布。例如,如果我们说状态的初始分布遵循 Normal(0,3),那么转移概率也应该是 p(x_n+1|x_n) = K(x_n+1|x_n) = Normal(x_n,0.1) 的分布,并且所有上述属性与离散场景保持一致。

现在我们要从目标密度 f(x) 中采样:
f ( x ) = 2 x 2 ( 1 − x ) 8 cos ⁡ ( 4 π x ) 2 f(x)=2 x^2(1-x)^8 \cos (4 \pi x)^2 f(x)=2x2(1x)8cos(4πx)2
假设我们正在创建一个马尔可夫链,其中转换内核 q(x,y) 为(其中 x 是当前时间点,y 是最后一个时间点):
q ( x , y ) = Normal ⁡ ( y , 0.1 ) q(x, y)=\operatorname{Normal}(y, 0.1) q(x,y)=Normal(y,0.1)
Metropolis-Hasting (MH) 算法首先初始化向量 x 的第一个值(假设我们将使用 MCMC 采样 n=10,000 个 x 值)x[0] 。然后在每次迭代中,我们首先使用转换内核生成一个 x_cand,并且我们需要计算接受率 alpha 来决定下一个 x 是采用 x_cand 还是仅采用最后一个 x 值。接受率如下所示:
α ( x cand  ∣ x i − 1 ) = min ⁡ { 1 , q ( x i − 1 ∣ x cand  ) f ( x cand  ) q ( x cand  ∣ x i − 1 ) f ( x i − 1 ) } \alpha\left(x_{\text {cand }} \mid x_{i-1}\right)=\min \left\{1, \frac{q\left(x_{i-1} \mid x_{\text {cand }}\right) f\left(x_{\text {cand }}\right)}{q\left(x_{\text {cand }} \mid x_{i-1}\right) f\left(x_{i-1}\right)}\right\} α(xcand xi1)=min{1,q(xcand xi1)f(xi1)q(xi1xcand )f(xcand )}
代码如下:

def f(x):
    import math
    return 2*x**2*(1-x)**8*math.cos(4*math.pi*x)**2
def q(x,y):
    return norm.pdf(x,loc=y,scale=0.1)

n = 10000
x = np.zeros(n)
x[0] = norm.rvs(loc=0,scale=0.1,size=1)[0]
for i in range(n-1):
    while True:
        x_cand = norm.rvs(loc=x[i],scale=0.1,size=1)[0]
        if x_cand >= 0 and x_cand <= 1:
            break
    if x_cand >= 0 and x_cand <= 1:
        rho = (q(x[i],x_cand)/q(x_cand,x[i]))*(f(x_cand)/f(x[i]))
        alpha = min(1,rho)
        u = uniform.rvs(loc=0,scale=1,size=1)[0]
        if u < alpha:
            x[i+1] = x_cand
        else:
            x[i+1] = x[i]
sns.histplot(x)
fig,ax = plt.subplots()
ax.plot(np.arange(10000),x)

💦分层贝叶斯

nruns = 10000
K = 100 
n = 1000 
y = np.zeros(K,n)  
lambda_est = np.zeros(K,nruns)
sigma_est = np.zeros(nruns)
mu_est = np.zeros(nruns)
tau_est = np.zeros(nruns)

for i in range(K):
    loc = uniform.rvs(loc=0,scale=10,size=1)[0]
    scale = uniform.rvs(loc=0,scale=0.1,size=1)[0]
    lambda_est[i,0] = norm.rvs(loc=loc,scale=scale,size=1)[0]
sigma_est[0] = uniform.rvs(loc=0,scale=0.1,size=1)[0]
mu_est[0] = norm.rvs(loc=uniform.rvs(loc=0,scale=10,size=1)[0],scale=1,size=1)[0]
tau_est[0] = uniform.rvs(loc=0,scale=0.1,size=1)[0]

for runs in range(1,n_runs-1,1):
  
    for i in range(1,K-1):
        mean = i/math.sqrt(1/tau_est[runs-1]) + n/sigma_est[runs-1]
        std = (mean^2)*(mu_est[runs-1]/(tau_est[runs-1])+y[i,:].mean()*n/sigma_est[runs-1])
        lambda_est[i,runs] = norm.rvs(loc=mean,scale=std,size=1)[0]

    sigma_sum_term = 0
    for i in range(K):
        for j in range(n):
            sigma_sum_term += (y[i,j]-lambda_est[i,runs])**2
    sigma_est[runs] = invgamma(loc=K*n/2,scale=sigma_sum_term/2)

    tau_sum_term = 0
    for i in range(K):
        tau_sum_term += (lambda_est[i,runs]-mu_est[runs-1])**2
    tau_est[runs] = invgamma(loc=K/2,scale=tau_sum_term/2)

    mu_est[runs] = norm.rvs(loc=lambda_est[:,runs-1].mean(),scale=math.sqrt(tau_est[runs]/2))

👉参阅一:计算思维

👉参阅二:亚图跨际

相关推荐

  1. Python | MATLAB | R 心理认知数学图形模型推断

    2024-06-06 13:16:02       28 阅读
  2. EmoLLM-心理健康大模型

    2024-06-06 13:16:02       41 阅读
  3. DDPM扩散模型数学推导

    2024-06-06 13:16:02       36 阅读
  4. 知识图谱数据模型

    2024-06-06 13:16:02       26 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-06-06 13:16:02       70 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-06-06 13:16:02       74 阅读
  3. 在Django里面运行非项目文件

    2024-06-06 13:16:02       62 阅读
  4. Python语言-面向对象

    2024-06-06 13:16:02       72 阅读

热门阅读

  1. 力扣1838.最高频的元素的频数

    2024-06-06 13:16:02       27 阅读
  2. C/C++中volatile关键字

    2024-06-06 13:16:02       27 阅读
  3. SpringBoot @ModelAttribute

    2024-06-06 13:16:02       27 阅读
  4. centos7 安装 mysql5.7 LTS

    2024-06-06 13:16:02       26 阅读
  5. Springboot接收参数的21种方式

    2024-06-06 13:16:02       23 阅读
  6. ngrok的使用

    2024-06-06 13:16:02       31 阅读
  7. HTML5 Web Workers 详解 (2)

    2024-06-06 13:16:02       24 阅读
  8. 查看 WSL2 (Windows Subsystem for Linux 2) IP 地址

    2024-06-06 13:16:02       28 阅读