最近在尝试生成使得 R 中 {stats} 的 arima() 函数 估计结果是 asymptotic bias的数据
基于模型
$$ y_t = \beta_1 + \beta_2 y_{t-1} + \varepsilon_t $$
已经尝试了:
1. \( \varepsilon_t \sim N(0,1) / t(3) / t(2) / t(1) / \chi^2_5 \)
;
2. \( \varepsilon_t = ( 1 + \gamma_t * x_t) \eta_t \)
, where \( \gamma_t \sim U(0,2), x_t \sim U(0,1), \eta_t \sim N(0,1) \)
;
3. \( \varepsilon_t \sim N(0, \sigma^2_t) \)
, where \( \sigma^{2}_{t} \)
为随机定义的分段函数
4. error 另服从 garch(1,1) 模型;
按以上几种设定,生成100个data sets, 每个sets里包含2000个obs,但最终得到的参数的估计值的均值离真实值差在 0.05 之内(常在 2\( \sigma \)
之内)
所以想请问一下,有什么方法能模拟出一个基于AR过程的随机序列,然而arima()对于此时间序列的估计不是渐近无偏的嘛
发现了一个case...当 \( \varepsilon_t = \rho \varepsilon_{t-1} + \sqrt{ 1 - \rho^2} \cdot u_t \)
, where \( u_t \sim N(0,1), \rho\)
为某常数...取值范围限制还没确定...