Skip to content

[mccall_q] Update Translation and Unify the Translation of Worker #25

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
wants to merge 1 commit into
base: main
Choose a base branch
from
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
16 changes: 8 additions & 8 deletions lectures/aiyagari.md
Original file line number Diff line number Diff line change
Expand Up @@ -169,9 +169,9 @@ w(r) = A (1 - \alpha) (A \alpha / (r + \delta))^{\alpha / (1 - \alpha)}
* 价格诱导的行为产生的总量与价格一致
* 总量和价格随时间保持不变

更详细地说,SREE列出了价格、储蓄和生产政策的集合,使得:
更详细地说,SREE列出了价格、储蓄和生产策略的集合,使得:

* 家庭在给定价格下选择指定的储蓄政策
* 家庭在给定价格下选择指定的储蓄策略
* 企业在相同价格下最大化利润
* 产生的总量与价格一致;特别是,资本需求等于供给
* 总量(定义为横截面平均值)保持不变
Expand All @@ -180,8 +180,8 @@ w(r) = A (1 - \alpha) (A \alpha / (r + \delta))^{\alpha / (1 - \alpha)}

1. 选择一个提议的总资本量 $K$
2. 确定相应的价格,其中利率 $r$ 由 {eq}`aiy_rgk` 决定,工资率 $w(r)$ 由 {eq}`aiy_wgr` 给出
3. 确定给定这些价格下家庭的共同最优储蓄政策
4. 计算给定这个储蓄政策下的稳态资本平均值
3. 确定给定这些价格下家庭的共同最优储蓄策略
4. 计算给定这个储蓄策略下的稳态资本平均值

如果最终数量与 $K$ 一致,那么我们就得到了一个SREE。

Expand Down Expand Up @@ -214,7 +214,7 @@ w(r) = A (1 - \alpha) (A \alpha / (r + \delta))^{\alpha / (1 - \alpha)}
class Household:
"""
这个类接收定义家庭资产积累问题的参数,并计算相应的回报和转移矩阵R
和Q,这些矩阵是生成DiscreteDP实例所必需的,从而求解最优政策
和Q,这些矩阵是生成DiscreteDP实例所必需的,从而求解最优策略

关于索引的说明:我们需要将状态空间S枚举为序列S = {0, ..., n}。
为此,(a_i, z_i)索引对根据以下规则映射到s_i索引:
Expand Down Expand Up @@ -313,7 +313,7 @@ def asset_marginal(s_probs, a_size, z_size):
return a_probs
```

作为第一个例子,让我们计算并绘制在固定价格下的最优积累政策
作为第一个例子,让我们计算并绘制在固定价格下的最优积累策略

```{code-cell} python3
# 示例价格
Expand Down Expand Up @@ -353,7 +353,7 @@ ax.legend(loc='upper left')
plt.show()
```

该图显示了在不同外生状态值下的资产积累政策
该图显示了在不同外生状态值下的资产积累策略

现在我们要计算均衡。

Expand Down Expand Up @@ -399,7 +399,7 @@ def prices_to_capital_stock(am, r):
w = r_to_w(r)
am.set_prices(r, w)
aiyagari_ddp = DiscreteDP(am.R, am.Q, β)
# 计算最优政策
# 计算最优策略
results = aiyagari_ddp.solve(method='policy_iteration')
# 计算稳态分布
stationary_probs = results.mc.stationary_distributions[0]
Expand Down
32 changes: 16 additions & 16 deletions lectures/career.md
Original file line number Diff line number Diff line change
Expand Up @@ -18,7 +18,7 @@ kernelspec:
</div>
```

# 工作搜寻 V:职业选择建模
# 求职搜索 V:职业选择建模

```{index} single: Modeling; Career Choice
```
Expand Down Expand Up @@ -73,13 +73,13 @@ from matplotlib import cm
* *职业*被理解为包含许多可能工作的一般领域,而
* *工作*被理解为在特定公司的一个职位

对于工人来说,工资可以分解为工作和职业的贡献
对于劳动者来说,工资可以分解为工作和职业的贡献

* $w_t = \theta_t + \epsilon_t$,其中
* $\theta_t$ 是在时间 t 职业的贡献
* $\epsilon_t$ 是在时间 t 工作的贡献

在时间 t 开始时,工人有以下选择
在时间 t 开始时,劳动者有以下选择

* 保持当前的(职业,工作)组合 $(\theta_t, \epsilon_t)$
--- 以下简称为"原地不动"
Expand All @@ -93,9 +93,9 @@ $\theta$ 和 $\epsilon$ 的抽取彼此独立,且与过去的值无关,其
* $\theta_t \sim F$
* $\epsilon_t \sim G$

注意,工人没有保留工作但重新选择职业的选项 --- 开始新职业总是需要开始新工作。
注意,劳动者没有保留工作但重新选择职业的选项 --- 开始新职业总是需要开始新工作。

年轻工人的目标是最大化折现工资的预期总和
年轻劳动者的目标是最大化折现工资的预期总和

```{math}
:label: exw
Expand Down Expand Up @@ -330,14 +330,14 @@ plt.show()
```
解释:

* 如果工作和职业都很差或一般,工人会尝试新的工作和新的职业
* 如果职业足够好,工人会保持这个职业,并尝试新的工作直到找到一个足够好的工作。
* 如果工作和职业都很好,工人会保持现状
* 如果工作和职业都很差或一般,劳动者会尝试新的工作和新的职业
* 如果职业足够好,劳动者会保持这个职业,并尝试新的工作直到找到一个足够好的工作。
* 如果工作和职业都很好,劳动者会保持现状

注意,工人总是会保持一个足够好的职业,但不一定会保持即使是最高薪的工作。
注意,劳动者总是会保持一个足够好的职业,但不一定会保持即使是最高薪的工作。

原因是高终身工资需要这两个变量都很大,而且
工人不能在不换工作的情况下换职业
劳动者不能在不换工作的情况下换职业

* 有时必须牺牲一个好工作来转向一个更好的职业。

Expand All @@ -348,7 +348,7 @@ plt.show()
```

使用 `CareerWorkerProblem` 类中的默认参数设置,
当工人遵循最优策略时,生成并绘制 $\theta$ 和 $\epsilon$ 的典型样本路径。
当劳动者遵循最优策略时,生成并绘制 $\theta$ 和 $\epsilon$ 的典型样本路径。
特别是,除了随机性之外,复现以下图形(其中横轴表示时间)

```{figure} /_static/lecture_specific/career/career_solutions_ex1_py.png
Expand Down Expand Up @@ -412,15 +412,15 @@ plt.show()
```{exercise}
:label: career_ex2

现在让我们考虑从起点$(\theta, \epsilon) = (0, 0)$开始,工人需要多长时间才能找到一份永久性工作
现在让我们考虑从起点$(\theta, \epsilon) = (0, 0)$开始,劳动者需要多长时间才能找到一份永久性工作

换句话说,我们要研究这个随机变量的分布

$$
T^* := \text{工人的工作不再改变的第一个时间点}
T^* := \text{劳动者的工作不再改变的第一个时间点}
$$

显然,当且仅当$(\theta_t, \epsilon_t)$进入$(\theta, \epsilon)$空间的"保持不变"区域时,工人的工作才会变成永久性的
显然,当且仅当$(\theta_t, \epsilon_t)$进入$(\theta, \epsilon)$空间的"保持不变"区域时,劳动者的工作才会变成永久性的

令$S$表示这个区域,$T^*$可以表示为在最优策略下首次到达$S$的时间:

Expand Down Expand Up @@ -472,7 +472,7 @@ median_time(greedy_star, F, G)

这些中位数会受随机性影响,但应该分别约为7和14。

不出所料,更有耐心的工人会等待更长时间才会安定在最终的工作岗位上
不出所料,更有耐心的劳动者会等待更长时间才会安定在最终的工作岗位上

```{solution-end}
```
Expand Down Expand Up @@ -507,7 +507,7 @@ ax.text(4.5, 1.5, '新工作', fontsize=14, rotation='vertical')
ax.text(4.0, 4.5, '保持现状', fontsize=14)
plt.show()
```
在新图中,你可以看到工人选择留在原地的区域变大了,这是因为 $\epsilon$ 的分布更加集中在均值附近,使得高薪工作的可能性降低了。
在新图中,你可以看到劳动者选择留在原地的区域变大了,这是因为 $\epsilon$ 的分布更加集中在均值附近,使得高薪工作的可能性降低了。

```{solution-end}
```
2 changes: 1 addition & 1 deletion lectures/exchangeable.md
Original file line number Diff line number Diff line change
Expand Up @@ -34,7 +34,7 @@ DeFinetti的工作对经济学家的相关性在David Kreps的{cite}`Kreps88`第

我们在本讲座中研究的一个例子是{doc}`这个讲座 <odu>`的一个关键组成部分,它扩充了

{doc}`classic <mccall_model>` McCall的经典工作搜索模型{cite}`McCall1970`通过为失业工人提供一个统计推断问题来展示
{doc}`classic <mccall_model>` McCall的经典工作搜索模型{cite}`McCall1970`通过为失业劳动者提供一个统计推断问题来展示

我们创建图表来说明似然比在贝叶斯定律中所起的作用。

Expand Down
28 changes: 14 additions & 14 deletions lectures/finite_markov.md
Original file line number Diff line number Diff line change
Expand Up @@ -139,12 +139,12 @@ $$
(mc_eg1)=
### 示例1

让我们考虑一个工人的就业状态,在任何给定时间 $t$,该工人要么处于失业状态(状态0)要么处于就业状态(状态1)。
让我们考虑一个劳动者的就业状态,在任何给定时间 $t$,该劳动者要么处于失业状态(状态0)要么处于就业状态(状态1)。

假设在一个月的时间内:

1. 一个失业工人找到工作的概率是 $\alpha \in (0, 1)$。
2. 一个就业工人失去工作的概率是 $\beta \in (0, 1)$。
1. 一个失业劳动者找到工作的概率是 $\alpha \in (0, 1)$。
2. 一个就业劳动者失去工作的概率是 $\beta \in (0, 1)$。

在马尔可夫链模型中,我们有:

Expand All @@ -168,7 +168,7 @@ P
有了 $\alpha$ 和 $\beta$ 的值后,我们可以回答许多有趣的问题,例如:

* 一个人平均会失业多长时间?
* 长期来看,一个工人有多大比例的时间处于失业状态
* 长期来看,一个劳动者有多大比例的时间处于失业状态
* 如果一个人现在有工作,那么在未来一年内他至少失业一次的概率是多少?

我们将在后续章节中详细探讨这些应用。
Expand Down Expand Up @@ -466,25 +466,25 @@ $$
```
我们研究的边际分布不仅可以解释为概率,还可以被理解为大数定律下大样本中实际观察到的横截面分布。

为了更好地理解这一点,让我们回到{ref}`前面讨论的<mc_eg1>`工人就业/失业动态模型。
为了更好地理解这一点,让我们回到{ref}`前面讨论的<mc_eg1>`劳动者就业/失业动态模型。

想象一个大型工人群体,其中每个工人的职业生涯都遵循相同的动态过程,且每个工人的经历在统计上独立于其他工人
想象一个大型劳动者群体,其中每个劳动者的职业生涯都遵循相同的动态过程,且每个劳动者的经历在统计上独立于其他劳动者

假设$\psi$代表当前在状态空间$\{ 0, 1 \}$上的*横截面*分布。

这个横截面分布反映了某一时刻就业和失业工人的比例
这个横截面分布反映了某一时刻就业和失业劳动者的比例

* 具体来说,$\psi(0)$表示失业率。

如果我们想知道10个周期后的横截面分布会是什么样子,答案是$\psi P^{10}$,其中$P$是{eq}`p_unempemp`中给出的随机矩阵。

这一结果成立是因为每个工人的状态都按照矩阵$P$的规律演变,因此$\psi P^{10}$代表了随机选取的单个工人的边际分布
这一结果成立是因为每个劳动者的状态都按照矩阵$P$的规律演变,因此$\psi P^{10}$代表了随机选取的单个劳动者的边际分布

根据大数定律,当样本规模足够大时,观察到的频率会非常接近理论概率。

因此,对于一个足够大(接近无限)的人口,

$\psi P^{10}$同时也代表了处于各个状态的工人比例
$\psi P^{10}$同时也代表了处于各个状态的劳动者比例

这正是我们所说的横截面分布。

Expand Down Expand Up @@ -701,7 +701,7 @@ $P$的每个元素都严格大于零是保证非周期性和不可约性的充

### 示例

回想我们之前{ref}`讨论过的 <mc_eg1>`关于某个工人就业/失业动态的模型。
回想我们之前{ref}`讨论过的 <mc_eg1>`关于某个劳动者就业/失业动态的模型。

假设$\alpha \in (0,1)$且$\beta \in (0,1)$,一致遍历条件是满足的。

Expand All @@ -713,7 +713,7 @@ $$
p = \frac{\beta}{\alpha + \beta}
$$

这个值表示长期来看,工人处于失业状态的平均时间比例 -- 我们将在后续章节中详细讨论这一解释。
这个值表示长期来看,劳动者处于失业状态的平均时间比例 -- 我们将在后续章节中详细讨论这一解释。

不出所料,当$\beta \to 0$时,它趋近于零;当$\alpha \to 0$时,它趋近于一。

Expand Down Expand Up @@ -857,7 +857,7 @@ $$

从横截面角度看,$p$ 表示整个人口中失业者的比例。

而根据刚才介绍的遍历性结果,$p$ 也表示单个工人长期来看处于失业状态的时间占比
而根据刚才介绍的遍历性结果,$p$ 也表示单个劳动者长期来看处于失业状态的时间占比

这意味着,从长期来看,群体的横截面平均值与个体的时间序列平均值是一致的。

Expand Down Expand Up @@ -976,7 +976,7 @@ $$
```{exercise}
:label: fm_ex1

根据{ref}`上述讨论 <mc_eg1-2>`,如果一个工人的就业动态遵循随机矩阵
根据{ref}`上述讨论 <mc_eg1-2>`,如果一个劳动者的就业动态遵循随机矩阵

$$
P
Expand Down Expand Up @@ -1032,7 +1032,7 @@ ax.hlines(0, 0, N, lw=2, alpha=0.6) # 在零处画水平线

for x0, col in ((0, 'blue'), (1, 'green')):

# 生成从x0开始的工人的时间序列
# 生成从x0开始的劳动者的时间序列
X = mc.simulate(N, init=x0)

# 计算每个n的失业时间比例
Expand Down
30 changes: 15 additions & 15 deletions lectures/jv.md
Original file line number Diff line number Diff line change
Expand Up @@ -18,7 +18,7 @@ kernelspec:
</div>
```

# {index}`工作搜寻 VI:在职搜索 <single: Job Search VI: On-the-Job Search>`
# {index}`求职搜索 VI:在职搜索 <single: Job Search VI: On-the-Job Search>`

```{index} single: Models; On-the-Job Search
```
Expand Down Expand Up @@ -60,24 +60,24 @@ from numba import jit, prange
```{index} single: 在职搜索; 模型
```

令 $x_t$ 表示在特定公司就职的工人在 t 时刻的工作特定人力资本,$w_t$ 表示当前工资。
令 $x_t$ 表示在特定公司就职的劳动者在 t 时刻的工作特定人力资本,$w_t$ 表示当前工资。

令 $w_t = x_t(1 - s_t - \phi_t)$,其中

* $\phi_t$ 是对当前职位的工作特定人力资本投资,且
* $s_t$ 是用于获取其他公司新工作机会的搜索努力。

只要工人继续留在当前工作,$\{x_t\}$ 的演变由 $x_{t+1} = g(x_t, \phi_t)$ 给出。
只要劳动者继续留在当前工作,$\{x_t\}$ 的演变由 $x_{t+1} = g(x_t, \phi_t)$ 给出。

当 t 时刻的搜索努力为 $s_t$ 时,工人以概率 $\pi(s_t) \in [0, 1]$ 收到新的工作机会。
当 t 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [0, 1]$ 收到新的工作机会。

这个机会的价值(以工作特定人力资本衡量)是 $u_{t+1}$,其中 $\{u_t\}$ 是具有共同分布 $f$ 的独立同分布序列。

工人可以拒绝当前的工作机会并继续现有的工作
劳动者可以拒绝当前的工作机会并继续现有的工作

因此,如果接受则 $x_{t+1} = u_{t+1}$,否则 $x_{t+1} = g(x_t, \phi_t)$。

令 $b_{t+1} \in \{0,1\}$ 为二元随机变量,其中 $b_{t+1} = 1$ 表示工人在时间 $t$ 结束时收到一个工作机会。
令 $b_{t+1} \in \{0,1\}$ 为二元随机变量,其中 $b_{t+1} = 1$ 表示劳动者在时间 $t$ 结束时收到一个工作机会。

我们可以写成

Expand Down Expand Up @@ -136,14 +136,14 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的

在我们求解模型之前,让我们做一些快速计算,以直观地了解解应该是什么样子。

首先,注意到工人有两种方式来积累资本从而提高工资
首先,注意到劳动者有两种方式来积累资本从而提高工资

1. 通过 $\phi$ 投资于当前工作的特定资本
1. 通过 $s$ 搜索具有更好的工作特定资本匹配的新工作

由于工资是 $x (1 - s - \phi)$,通过 $\phi$ 或 $s$ 进行投资的边际成本是相同的。

我们的风险中性工人应该专注于预期回报最高的工具
我们的风险中性劳动者应该专注于预期回报最高的工具

相对预期回报将取决于$x$。

Expand All @@ -167,7 +167,7 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的

1. 在任何给定状态$x$下,两个控制变量$\phi$和$s$将

主要作为替代品 --- 工人会专注于预期回报较高的工具
主要作为替代品 --- 劳动者会专注于预期回报较高的工具
1. 对于足够小的 $x$,搜索会比投资工作特定人力资本更可取。对于较大的 $x$,则相反。

现在让我们转向实施,看看是否能验证我们的预测。
Expand Down Expand Up @@ -388,9 +388,9 @@ plt.show()

总的来说,这些策略与我们在{ref}`上文<jvboecalc>`中的预测相符

* 工人根据相对回报在两种投资策略之间切换
* 劳动者根据相对回报在两种投资策略之间切换
* 对于较低的 $x$ 值,最佳选择是寻找新工作。
* 一旦 $x$ 变大,工人通过投资于当前职位的特定人力资本会获得更好的回报
* 一旦 $x$ 变大,劳动者通过投资于当前职位的特定人力资本会获得更好的回报

## 练习

Expand Down Expand Up @@ -487,12 +487,12 @@ $\phi_t = \phi(x_t) \approx 0.6$。
而 $\phi_t$ 收敛到约0.6。

由于这些结果是在 $\beta$ 接近1的情况下计算的,
让我们将它们与*无限*耐心的工人的最佳选择进行比较
让我们将它们与*无限*耐心的劳动者的最佳选择进行比较

直观地说,无限耐心的工人会希望最大化稳态工资
直观地说,无限耐心的劳动者会希望最大化稳态工资
而稳态工资是稳态资本的函数。

你可以认为这是既定事实——这确实是真的——无限耐心的工人
你可以认为这是既定事实——这确实是真的——无限耐心的劳动者
在长期内不会搜索(即,对于较大的 $t$,$s_t = 0$)。

因此,给定 $\phi$,稳态资本是映射 $x \mapsto g(x, \phi)$ 的正固定点 $x^*(\phi)$。
Expand Down Expand Up @@ -531,7 +531,7 @@ plt.show()

这与{ref}`jv_ex1`中得到的$\phi$的长期值相似。

因此,无限耐心的工人的行为与$\beta = 0.96$的工人的行为相似
因此,无限耐心的劳动者的行为与$\beta = 0.96$的劳动者的行为相似

这看起来是合理的,并且帮助我们确认我们的动态规划解可能是正确的。

Expand Down
Loading
Loading