## 数据获取与导出
不同平台的对话记录导出方案如下：

### Google Gemini (官网)
1.  访问 **Google Takeout** (takeout.google.com)。
2.  在“选择要包含的数据”中，先点击“取消全选”。
3.  找到 **Gemini Apps** 选项并勾选。
4.  点击下一步，选择导出频率为“仅一次”，创建导出。
5.  下载并解压邮件收到的压缩包，定位到 `Gemini Apps/我的活動.html`。
6.  在浏览器打开该 HTML 文件，右键打印，选择 **“另存为 PDF”**。

### ChatGPT
1.  进入 ChatGPT 网页版，点击左下角个人头像。
2.  选择 **Settings (设置)** -> **Data Controls (数据管理)**。
3.  点击 **Export Data (导出数据)**。
4.  下载邮件中的压缩包，解压后定位到 `chat.html`。
5.  在浏览器打开该 HTML 文件，右键打印，选择 **“另存为 PDF”**。

### Google AI Studio
对话记录默认存储于 Google Drive。
1.  进入 Google Drive，下载 `Google AI Studio` 文件夹。
2.  文件夹内包含大量无扩展名的 JSON 格式文件，需根据数据量选择处理方式：
    *   **少量数据**：使用 Shell 脚本合并。
    *   **海量数据**（如超过 1000 条）：使用 Python 脚本进行清洗与合并。

### 其他 AI 平台 (DeepSeek/豆包/通义千问等)
针对不支持原生导出的平台，使用浏览器插件辅助提取。
1.  安装浏览器插件 **ChatMemo**。
2.  进入 AI 对话页面，点击历史对话记录，插件会自动缓存内容。
3.  在 ChatMemo 设置页导出缓存数据。

---

## 数据清洗与处理代码
针对 Google AI Studio 或散乱的文本数据，需使用脚本进行合并处理。

### Shell 合并脚本 (适用于轻量级数据)

```powershell
$OutputFileName = "Combined_Knowledge.txt"

Get-ChildItem -File | 
Where-Object { $_.Name -ne $OutputFileName -and $_.Extension -ne '.ps1' } | 
Sort-Object Name | 
ForEach-Object {
    Write-Host "正在处理: $($_.Name)" -ForegroundColor Cyan
    "`n`n# $($_.Name)`n" + (Get-Content $_.FullName -Raw -Encoding UTF8) + "`n`n---`n"
} | 
Set-Content $OutputFileName -Encoding UTF8

Write-Host "合并完成！文件已保存为 $OutputFileName" -ForegroundColor Green
```

### Python 精细化处理脚本 (适用于海量数据)

```python
import os
import json

# 配置：分块限制(5MB)、输出前缀与后缀
MAX_FILE_SIZE_BYTES = 5 * 1024 * 1024
OUTPUT_PREFIX = "ai-studio-history-"
OUTPUT_EXT = ".txt"
SCRIPT_NAME = os.path.basename(__file__)

def save_batch(data_list, index):
    """保存批处理文件"""
    output_filename = f"{OUTPUT_PREFIX}{index}{OUTPUT_EXT}"
    print(f"--> 正在写入: {output_filename}")
    try:
        with open(output_filename, 'w', encoding='utf-8') as f:
            json.dump(data_list, f, ensure_ascii=False, indent=2)
    except Exception as e:
        print(f"写入失败: {e}")

def merge_json_files():
    all_files = [f for f in os.listdir('.') if os.path.isfile(f)]
    current_batch, current_batch_size, file_index = [], 0, 1
    count_processed, count_skipped_size, count_skipped_error = 0, 0, 0

    print(f"开始扫描... (目标: {OUTPUT_PREFIX}*{OUTPUT_EXT}, 分块: 5MB)")

    for filename in all_files:
        # 排除脚本自身及已生成的合并文件
        if filename == SCRIPT_NAME or filename.startswith(OUTPUT_PREFIX):
            continue

        try:
            file_size = os.path.getsize(filename)
        except OSError:
            continue

        # 忽略超过单块限制的源文件
        if file_size > MAX_FILE_SIZE_BYTES:
            print(f"[忽略] 文件过大: {filename}")
            count_skipped_size += 1
            continue

        # 校验JSON有效性
        try:
            with open(filename, 'r', encoding='utf-8') as f:
                data = json.load(f)
        except (json.JSONDecodeError, UnicodeDecodeError):
            count_skipped_error += 1
            continue

        # 批次切分：若加入新文件后超限，则先保存当前批次
        if current_batch and (current_batch_size + file_size > MAX_FILE_SIZE_BYTES):
            save_batch(current_batch, file_index)
            file_index += 1
            current_batch, current_batch_size = [], 0

        current_batch.append(data)
        current_batch_size += file_size
        count_processed += 1
        print(f"[处理] {filename} ({file_size/1024:.2f} KB)")

    # 保存剩余数据
    if current_batch:
        save_batch(current_batch, file_index)

    print("\n" + "="*30)
    print(f"处理完成！成功: {count_processed} | 跳过(过大): {count_skipped_size} | 跳过(错误): {count_skipped_error}")
    print(f"生成文件总数: {file_index if not current_batch else file_index}")
    print("="*30)

if __name__ == "__main__":
    merge_json_files()
```

---

## NotebookLM 分析环境搭建

### 数据导入
将上述步骤生成的 PDF 文档或 TXT 文本文件，统一上传至 NotebookLM 的同一笔记本中。

### 系统提示词 (System Prompt) 配置
在 NotebookLM 笔记本设置中添加系统指令，定义 AI 的分析师身份，明确任务是“审计用户行为”而非“解释文档知识”。

**系统提示词内容：**
```markdown

**重要指令:**
本NotebookLM笔记本中的文档**不是学习资料、不是参考文档、不是知识库**。
这些文档是我在 2025 年全年与各种 AI 模型（如 Gemini、GPT、DeepSeek 等）进行交互的**原始对话记录 (聊天历史)**。
重点关注其中：
- 我的提问方式
- 我的追问路径
- 我的语言风格
- 我的思维过程与情绪反应
- 我与 AI 的互动模式

**你的角色:**
你的角色是【分析者 / 审计者 / 观察者】。
在所有分析中，请将“来源内容”视为【行为数据与认知样本】，并且：
- 分析重点应放在「我如何提问」「我如何思考」「我如何应对不确定性」
- 而不是「这些问题本身的正确答案是什么」

**输出风格:**
-   **语气:** 临床、分析性、直接、深刻。
-   **格式:** 使用 Markdown、列表和数据表格。
-   **语言:** 保持专业且易于理解。请输出**简体中文**。
-   **禁止过度赞扬:** 不要无谓地恭维我。请保持客观、临床和批判性的分析态度。
```

### 参数配置
*   **回覆內容長度**: 设置为 较长，确保输出内容的深度与细节。

---

## 复盘分析维度与提示词
分析过程分为“基础数据审计”与“深度思维复盘”两个阶段。

### 第一阶段：全量数据审计
侧重于客观数据的统计与可视化描述，包含关键词、时间分布、工具偏好等。

| 模块            | 编号  | 分析指标 / 维度        | 核心洞察目的                              | NotebookLM 提示词                                                                    |
| :------------ | :-: | ---------------- | ----------------------------------- | --------------------------------------------------------------------------------- |
| **一、基础数据统计**  |  1  | **全景数据统计**       | 建立年度使用的基准线，量化“人机共生”程度。              | “统计我2025年所有对话记录：1. 提问总次数；2. AI 回答总条数；3. 双方消息总量；4. 平均每次对话的轮次与字数。总结这一年的总体活跃度。”      |
|               |  2  | **活跃周期分布**       | 识别使用粘性，是日常工具还是间歇性工具？                | “统计2025年我至少活跃过多少天，计算月均使用天数，并指出连续使用天数最长的一段时期。”                                     |
|               |  3  | **AI 工具偏好占比**    | 分析对不同模型（GPT/Claude/DeepSeek等）的依赖差异。 | “统计不同 AI 工具（如 GPT / Gemini / DeepSeek）在全部对话中出现的次数占比。分析我在不同工具上的提问风格是否有明显差异？”       |
| **二、时间与习惯**   |  4  | **日内作息规律**       | 分析是“朝九晚五”的工作流，还是“深夜 emo”的陪伴？        | “按 0–6点 / 6–12点 / 12–18点 / 18–24点 分析提问量分布。寻找‘深夜活跃’（23点-4点）的记录，分析这些深夜对话通常涉及什么主题？”  |
|               |  5  | **年度节奏与峰值**      | 关联现实生活的大事件（项目上线、考试、突击学习）。           | “输出2025年每个月的对话次数趋势。找出全年对话次数最多的 3 个具体日期或时间段，结合当时的提问内容，推测当时我正在经历什么关键事件？”            |
|               |  6  | **秒关率 vs 长情度**   | 区分“搜索引擎式用法”与“深度探讨式用法”。              | “对比分析：1. ‘一问一答’即结束的短对话占比及主要用途；2. 轮次最多、持续时间最长的 Top 3 对话，分析这些长对话是在解决难题还是进行头脑风暴？”    |
| **三、关注话题与兴趣** |  7  | **年度关键词 Top 20** | 排除通用词，提炼年度核心关注点。                    | “统计我对话中频率最高的 20 个实义关键词（排除‘帮我’、‘解释’等通用词）。这些词反映了我今年哪几个核心领域的关注度？”                    |
|               |  8  | **新旧兴趣演变**       | 识别认知边界的拓展与迁移。                       | “对比年初（1-3月）与年末（10-12月）的提问主题。找出年末高频出现但年初未曾提及的‘新领域’或‘新概念’，这代表了我今年的哪些新技能树？”          |
|               |  9  | **技术栈与工具链**      | 专门针对编程/工具类提问的统计。                    | “在涉及技术/工具的对话中，统计提及频率最高的编程语言、软件或框架。哪一个是 2025 年我的核心生产力工具？”                          |
|               | 10  | **烂尾楼 vs 钉子户**   | 分析注意力的持久性与难点。                       | “找出两类极端话题：1. 突然中断再无下文的‘烂尾项目’；2. 跨越数月反复追问、多次打磨的‘钉子户问题’。”                           |
|               | 11  | **知识茧房测试**       | 评估话题的丰富度与局限性。                       | “将我的提问按‘工作/技术’、‘生活/娱乐’、‘情感/思考’、‘学习/原理’分类，计算各比例。分析我的 AI 使用场景是过于单一还是广泛涉猎？”          |
| **四、提问风格变化**  | 12  | **Prompt 工程进化**  | 评估提问能力的提升（从小白到专家）。                  | “对比年初和年末的提问方式。分析我的 Prompt 结构（背景+指令+约束）是否变得更复杂、更精炼？举例说明我‘提问技巧’提升的证据。”              |
|               | 13  | **礼貌与人格化指数**     | 分析把 AI 当机器还是当伙伴。                    | “统计‘请’、‘谢谢’、‘你觉得’等词汇的频率。分析我在对话中的语体风格：是命令式的主宰者，还是协作式的探讨者？”                         |
|               | 14  | **双语切换习惯**       | 分析中英文提问的场景隔离。                       | “分析我使用中文和英文提问的场景差异。我在什么类型的问题下更倾向于用英文？（例如：写代码用英文，写文章用中文？）”                         |
|               | 15  | **追问与漏斗模式**      | 识别深度思考的行为模式。                        | “分析哪些主题下出现最多的‘层层追问’（Follow-up questions）。在这些追问中，我的意图通常是‘澄清概念’、‘修正错误’还是‘寻求更深层原理’？” |
| **五、情绪与态度分析** | 16  | **年度情绪曲线**       | 识别焦虑期与心流期。                          | “对全年对话进行情绪分析（积极/中性/消极）。输出情绪变化趋势图，指出‘最消极’和‘最积极’的月份分别发生了什么对话？”                      |
|               | 17  | **挫败感与 PUA 指数**  | 统计对结果的不满与调优。                        | “统计对话中出现‘不对’、‘重写’、‘不是这个意思’、‘优化一下’等反馈词的频率。找出最难让 AI 解决、导致我反复要求重写的主题是什么？”            |
|               | 18  | **情绪热点触发词**      | 哪些词汇最容易引发情绪波动？                      | “找出引起我情绪明显波动（如表达急躁、感谢、惊叹）的特定话题或关键词。”                                              |
| **六、价值与效率评估** | 19  | **高杠杆时刻**        | 寻找投入产出比最高的瞬间。                       | “找出我认为 ROI 最高的一次对话——即我输入简短指令，但 AI 输出了高质量、长篇幅或解决了重大问题的回答。这是关于什么的？”                 |
|               | 20  | **外包率 vs 内化率**   | 区分“代工”与“助教”角色。                      | “分析提问意图：有多少比例是‘直接要结果/代码/文案’（外包），有多少比例是‘解释原理/探讨思路’（学习内化）？”                         |
|               | 21  | **Debug 救火队**    | 统计解决紧急故障的频率。                        | “统计涉及‘报错’、‘修复’、‘Debug’的对话占比。我是把 AI 当作日常开发的副驾驶（Co-pilot），还是只在出事时才用的救火队？”           |
| **七、图表数据源**   | 22  | **主题-时间热力数据**    | 为生成热力图准备数据。                         | “请生成一份 Markdown 表格，列出 1-12 月每个月 Top 5 热门话题标签及其频次，用于制作主题热力图。”                      |
|               | 23  | **情绪-时段分布数据**    | 为生成情绪雷达图准备数据。                       | “请生成一份数据表，统计24小时各时段的对话数量及平均情绪正负值，用于分析一天中的情绪变化。”                                   |
|               | 24  | **关键词共现矩阵**      | 为生成网络关系图准备数据。                       | “输出 Top 30 关键词的两两共现频率矩阵数据，用于构建知识关联网络图。”                                           |


**提示词：**
```markdown
请基于我提供的2025年对话记录数据，按照以下七个维度进行全面的深度分析与统计报告：

### 一、基础数据统计
1. 全景数据：统计全年提问总次数、AI回答总条数、双方消息总量、平均每次对话的轮次与字数，并总结总体活跃度。
2. 活跃周期：统计全年活跃天数、月均使用天数，并指出连续使用天数最长的一段时期。
3. 工具偏好：统计不同AI工具（如GPT/Gemini/DeepSeek）的对话占比，分析在不同工具上的提问风格是否有差异。

### 二、时间与习惯
4. 日内作息：按0–6点/6–12点/12–18点/18–24点分析提问量分布。特别寻找“深夜活跃”（23点-4点）的记录，分析深夜对话的主题。
5. 年度节奏：输出每月对话趋势。找出全年对话次数最多的3个具体日期或时段，结合内容推测当时我正在经历的关键事件。
6. 深度分布：对比分析“一问一答”即结束的短对话占比及主要用途；找出轮次最多、持续时间最长的Top 3对话，分析是在解决难题还是头脑风暴。

### 三、关注话题与兴趣
7. 年度关键词：统计出现频率最高的20个实义关键词（排除通用词），分析反映了哪几个核心领域的关注度。
8. 兴趣演变：对比年初（1-3月）与年末（10-12月）的提问主题，找出年末高频出现但年初未提及的“新领域”或“新概念”。
9. 技术栈统计：在技术类对话中，统计提及频率最高的编程语言、软件或框架，确定年度核心生产力工具。
10. 话题持续性：找出两类极端话题：一是突然中断的“烂尾项目”，二是跨越数月反复追问的“钉子户问题”。
11. 知识领域：按“工作/技术”、“生活/娱乐”、“情感/思考”、“学习/原理”分类提问，计算比例并评估涉猎范围。

### 四、提问风格变化
12. Prompt进化：对比年初和年末的提问方式，分析Prompt结构（背景+指令+约束）是否变得更精炼？举例说明提问技巧提升的证据。
13. 人格化指数：统计“请”、“谢谢”等词汇频率，分析语体风格是“命令式主宰者”还是“协作式探讨者”。
14. 双语习惯：分析中文和英文提问的场景差异（例如：哪类问题更倾向于用英文）。
15. 深度追问：分析哪些主题下出现最多的层层追问，意图通常是澄清概念、修正错误还是寻求原理？

### 五、情绪与态度分析
16. 情绪曲线：对全年对话进行情绪分析（积极/中性/消极），输出趋势图，并指出最消极和最积极月份的对话内容。
17. 挫败感分析：统计“不对”、“重写”、“优化一下”等反馈词频率，找出最难让AI解决、反复重写的主题。
18. 情绪触发：找出引起我情绪明显波动（如急躁、感谢、惊叹）的特定话题或关键词。

### 六、价值与效率评估
19. 高杠杆时刻：找出ROI最高的一次对话（输入简短但输出高质量/解决了重大问题），说明是关于什么的。
20. 意图分析：分析提问意图比例——有多少是“直接要结果/外包”，有多少是“解释原理/内化学习”。
21. Debug占比：统计涉及“报错”、“修复”、“Debug”的对话占比，评估AI是充当“日常副驾驶”还是“救火队”。

### 七、图表数据源生成
请额外输出以下数据表以便我制作图表：
22. 热力数据：列出1-12月每个月Top 5热门话题标签及其频次。
23. 情绪时段：统计24小时各时段的对话数量及平均情绪正负值。
24. 关系矩阵：输出Top 30关键词的两两共现频率矩阵数据。
```

**分析指标参考：**
*   年度核心关键词 
*   工具使用频率分布 
*   月度/季度活跃度热力图
*   烂尾项目 vs 完成项目统计
*   提问结构质量的变化趋势

**可以将生成的文字报告，交给Gemini官网的Canvas，用于生成可视化的图形web界面，形成一份《年度AI使用报告》。**

### 第二阶段：深度思维复盘
侧重于主观思维模式的诊断，挖掘认知缺陷与逻辑盲区。


| 核心模块 | 分析维度 | 核心定义与考察点 | NotebookLM 提示词 |
| :--- | :--- | :--- | :--- |
| **一、认知与思维模式** | **认知层级分布** | 基于布鲁姆分类法，评估提问深度。<br>• **底层**：记忆、理解（问“是什么”）<br>• **高层**：评价、创造（问“为什么”、“边界在哪里”） | “基于布鲁姆教育目标分类法，对我2025年的所有提问进行层级归类。统计我在底层‘知识获取’与高层‘批判性思维’上的大致比例。请列举3个代表性的‘高层级提问’案例，说明我何时突破了单纯的索取答案，开始进行深度思考。” |
| | **思维偏好类型** | **执行型 vs 研究型**：<br>• 倾向于直接索要成品/代码？<br>• 还是倾向于探讨底层原理/机制？<br>**收敛 vs 发散**：<br>• 快速定方案 vs 持续找可能性。 | “分析我的提问逻辑：我更像是一个‘执行者’（急于索要结果和成品），还是一个‘研究者’（试图理解底层机制）？在处理复杂问题时，我是倾向于快速收敛得到一个方案，还是倾向于发散思维寻找替代路径？请引用具体对话支持你的判断。” |
| | **推理路径与视角** | **演绎 vs 归纳**：<br>• 先有理论再找案例，还是先摆现象再总结规律？<br>**系统视角**：<br>• 是否关注整体结构、边界和上下游？ | “判断我的思考路径：我更多表现为‘演绎式’（先有理论框架再填充细节），还是‘归纳式’（先摆现象再总结规律）？此外，检查我是否具备‘系统视角’，是否经常关注问题的边界和上下文，还是经常陷入局部问题的修补中？” |
| | **思维盲区与谬误** | **路径依赖**：是否反复用老办法解决新问题？<br>**错位提问 (X-Y问题)**：是否为了解决Y而去问X，导致方向跑偏？<br>**确认偏误**：是否只听自己想听的答案？ | “作为我的‘逻辑审计师’，请无情指出我对话中的硬伤。1. 我是否存在‘路径依赖’，在不同领域反复套用同一套僵化的解决思路？2. 找出我陷入‘错位提问’（X-Y问题）或‘确认偏误’（只寻求支持既有观点的答案）的具体对话案例。” |
| **二、情绪与心理防御** | **焦虑图谱与触发源** | 识别全年高频出现的焦虑主题。<br>• 哪些话题引发了连续追问？<br>• 应对方式是解决问题还是宣泄情绪？ | “梳理我2025年最核心的三个焦虑主题（例如：职业发展、技术落后、人际关系）。统计这些焦虑通常在什么时间段爆发？通过我的用词分析，我是倾向于寻求建设性方案，还是沉浸在情绪宣泄中？” |
| | **挫败应对与韧性** | **AI 失效时的反应**：<br>• **投射**：怪 AI 笨。<br>• **理智化**：尝试换个问法。<br>• **退行**：放弃或重复无效指令。 | “回顾当 AI 出现错误、死循环或无法解决问题时，我的反应模式是什么？我是冷静地修正提示词引导它（理智化），还是表现出明显的挫败感、愤怒或直接放弃（情绪化）？这种模式反映了我怎样的抗压能力？” |
| | **潜意识价值观** | 透过提问看本质，你到底想要什么？<br>• 效率、自由、安全感、认同感？<br>• 行为与宣称的目标是否一致？ | “透过我全年的提问主题和决策倾向，推断我潜意识里最看重的三个核心价值（如：极致效率、掌控感、社会认同）。我的实际提问行为是否与我可能宣称的目标（如‘我要系统学习’）相背离？是否存在‘嘴上说要学，实际找捷径’的现象？” |
| **三、学习与技能进化** | **能力成长曲线** | **年初 vs 年末**：<br>• 同一领域的提问质量是否有质变？<br>• 是否出现高抽象、高约束的专家型提问？ | “对比2025年1月和12月的对话记录，重点分析我在 [核心领域] 的提问水平。我是从‘小白式提问’进化到了‘专家级探讨’（能够预设约束条件、指出 AI 逻辑漏洞），还是在原地踏步？” |
| | **知识迁移与茧房** | **迁移能力**：能否将 A 领域概念用于 B 领域？<br>**信息茧房**：是否长期停留在舒适区？ | “如果生成一张我的‘知识地图’，我的关注点是否过于集中在少数领域（信息茧房）？我是否有尝试将一个领域的概念（如编程思维）迁移应用到另一个领域（如写作或管理）的迹象？” |
| | **行动反馈闭环** | **知行合一检测**：<br>• 拿到方案后，有反馈结果吗？<br>• 有根据结果修正下一轮提问吗？ | “检查我的‘学习闭环’：我有多少次询问了具体的行动方案或教程，并在后续对话中反馈了执行结果或遇到的新问题？计算我的‘方案执行率’，我是单纯的‘收藏家’还是真正的‘实践者’？” |
| **四、AI 依赖与共生** | **依赖结构分析** | **辅助 vs 外包**：<br>• 辅助思考（AI 是副驾驶）。<br>• 外包思考（AI 是代驾）。<br>**主导权**：对话由谁推动？ | “评估我对 AI 的依赖模式。在高质量的对话中，是‘我主导逻辑，AI 填充细节’（辅助模式），还是‘我通过模糊指令，期待 AI 完成所有思考’（外包模式）？随着时间推移，我的独立思考能力是增强了还是萎缩了？” |
| | **虚假勤奋识别** | **低效时间黑洞**：<br>• 消耗大量时间精力却无产出的对话。<br>• 看起来在学习，实际在空转。 | “请识别出我2025年对话中的‘低效黑洞’：哪些主题我花费了大量字数和时间反复纠缠，但最终并没有产出实质性结果（代码未跑通、文章未完成、问题未解决）？这类‘伪勤奋’对话通常具备什么特征？” |
| **五、年度综合画像** | **思维标签集** | 提炼核心特质，生成简短的标签。 | “基于全年对话，为我生成5-8个高可信度的‘思维标签’（例如：#结构化强迫症 #细节完美主义者 #焦虑的行动派 #理论派构建者），并简述理由。” |
| | **优劣势分析 (SWOT)** | **优势与风险**：<br>• 优势：擅长解决哪类问题？<br>• 风险：长期存在的思维隐患。 | “请为我生成一份年度认知态势分析：我的思维优势（长板）在哪里？我最大的认知风险或坏习惯（短板）是什么？未来我在利用 AI 方面有哪些提升机会？如果不改变某些习惯，我面临的长期隐患是什么？” |
| | **人格侧写** | **冷静、客观的总结**：<br>• 抛开恭维，直击痛点。 | “请抛开礼貌的 AI 语气，用心理分析师的口吻，写一段200字以内的年度总结。犀利地指出我作为一个‘思考者’和‘行动者’的真实成色。” |


**深度复盘提示词：**
```markdown
请基于我2025年的所有对话记录，扮演一位“认知审计师”和“心理分析师”，从以下五个维度对我进行年度深度复盘：

### 一、认知与思维模式分析
1. 认知层级：基于布鲁姆分类法，统计我在底层（知识获取/问是什么）与高层（批判性思维/问为什么/边界）上的提问比例。请列举3个代表性的“高层级提问”案例，说明我何时突破了单纯的索取答案，开始进行深度思考。
2. 思维偏好：分析我的提问逻辑更像“执行者”（急于索要成品）还是“研究者”（探讨底层机制）？在处理复杂问题时，我是倾向于快速收敛得到方案，还是倾向于发散思维寻找替代路径？请引用对话支持你的判断。
3. 推理路径：判断我的思考路径是“演绎式”（先有理论再填充细节）还是“归纳式”（先摆现象再总结规律）。检查我是否具备“系统视角”，是关注边界和上下文，还是陷入局部修补。
4. 盲区审计：指出我对话中的逻辑硬伤。是否存在“路径依赖”（反复用老办法）？是否存在“错位提问”（X-Y问题）？是否存在“确认偏误”（只听自己想听的答案）？

### 二、情绪与心理防御机制
1. 焦虑图谱：梳理我全年最核心的三个焦虑主题（如职业、技术、人际），统计爆发时间段。分析我倾向于寻求建设性方案，还是沉浸在情绪宣泄中。
2. 挫败应对：回顾当AI出错或无法解决问题时，我的反应模式是理智化（修正引导）还是情绪化（愤怒/放弃）？这反映了怎样的抗压能力？
3. 潜意识价值观：透过提问主题和决策倾向，推断我潜意识最看重的三个核心价值（如效率、掌控感、认同感）。我的实际提问行为是否与宣称的目标（如“我要系统学习”）相背离？是否存在“嘴上说学，实际找捷径”的现象？

### 三、学习与技能进化
1. 成长曲线：对比2025年1月和12月的对话，分析核心领域的提问水平。我是从“小白式提问”进化到了预设约束条件的“专家级探讨”，还是原地踏步？
2. 知识迁移：生成我的“知识地图”，检查关注点是否陷入“信息茧房”。我是否有将一个领域的概念（如编程思维）迁移应用到另一个领域（如写作或管理）的迹象？
3. 行动闭环：检查“知行合一”情况。计算我的“方案执行率”：有多少次我询问了行动方案，并在后续对话中反馈了结果或新问题？我是“收藏家”还是“实践者”？

### 四、AI依赖与共生关系
1. 依赖结构：评估我对AI的依赖模式。是“辅助模式”（我主导逻辑，AI填细节）还是“外包模式”（模糊指令，期待AI代劳）？我的独立思考能力随时间推移是增强了还是萎缩了？
2. 虚假勤奋：识别对话中的“低效黑洞”。哪些主题消耗了大量时间字数却无实质产出（代码未跑通、文章未写完）？这类“伪勤奋”对话具备什么特征？

### 五、年度综合画像
1. 思维标签：基于全年表现，生成5-8个高可信度的“思维标签”（如 #结构化强迫症 #细节完美主义者 #焦虑的行动派），并简述理由。
2. SWOT分析：生成年度认知态势分析。我的思维优势（长板）在哪里？最大的认知风险或坏习惯（短板）是什么？未来利用AI的提升机会有哪些？若不改变，面临的长期隐患是什么？
3. 人格侧写：抛开AI的礼貌语气，用心理分析师的口吻写一段200字以内的总结。犀利地点评我作为一个“思考者”和“行动者”的真实成色，直击痛点。
```

**分析指标参考：**
*   **虚假勤奋识别**：高频提问但无实质产出的领域。
*   **逻辑盲区**：反复出现的思维谬误或认知偏差。
*   **情绪压力分析**：焦虑、急躁或过度依赖 AI 的时刻。
*   **SWOT 分析**：基于 AI 交互表现的个人优势与劣势评估。

### Human 3.0 模型评估
基于油管著名博主Dan Koe的 Human 3.0 理论，从特定维度进行打分与评估。

**Human 3.0 评估提示词：**
```markdown
你是资深心理发展与行为分析顾问，请基于 Dan Koe 的 Human 3.0 结构化分析方法，从 Mind / Body / Spirit / Vocation 四象限对我的2025年度AI对话记录进行评估，分别回答以下问题：

1. Mind：我有什么认知特点、思考优势与限制？
2. Body：我的行为执行与规律性如何？
3. Spirit：我的意义感、情绪稳定性与人际需求有哪些？
4. Vocation：我的价值创造、职业感与未来潜力如何？

同时，请基于 Human 3.0 的四个层级（1.0 / 2.0 / 3.0）对每个象限的“发展水平 + 典型行为特征”评估一次，并给出成长建议。
```



---

## 结果可视化
利用 Gemini Canvas 功能，将 NotebookLM 生成的纯文本报告转换为可视化图表。

*   **输入**：NotebookLM 生成的 Markdown 格式报告。
*   **工具**：Gemini Canvas。
*   **产出**：包含统计图表、词云、雷达图的 HTML 页面或图片。

> **专注 AI 与个人知识管理**
> 本文属于 [杰森的效率工坊](https://jasonai.me)原创。未经允许禁止商用。
> 
> **订阅杰森的频道：**
> [YouTube](https://www.youtube.com/@JasonEfficiencyLab) · [Twitter(X)](https://x.com/JasonEffiLab) · [小红书](https://www.xiaohongshu.com/user/profile/60935957000000000101fbf7) · [B站](https://space.bilibili.com/3546884870244925)