MIT Technology review published “How to run an LLM on your laptop”.
总结如下:
- 隐私保护: 下载一个本地的LLM可以让你控制你的个人数据,不会将你的对话数据用于训练模型。
- OpenAI:
- OpenAI 的 ChatGPT 默认会训练模型时使用用户的聊天数据。
- 虽然可以选择退出此训练,但最近有法律决定要求 OpenAI 保留所有用户与 ChatGPT 的对话记录。
- Google:
- Google 的 Gemini 模型会使用免费和付费用户的交互数据进行训练。
- 唯一的退出方式是将聊天记录设置为自动删除,但这也意味着无法访问之前的对话记录。
- Anthropic:
- Anthropic 通常不会使用用户对话数据来训练模型。
- 但对于"被标记需要信任和安全审查"的对话,Anthropic 仍可能会用于训练。
- OpenAI:
- 减少对大型AI公司的依赖: 运行自己的本地LLM可以让你脱离大型AI公司的控制和潜在的偏见模型。
- 自定义: 本地LLM可以让你选择适合自己的模型和偏好,而不受单一公司的限制。
- 安全增强: 本地LLM比在线模型更不容易受到数据泄露和其他安全风险的影响。
- 透明度提高: 你可以检查模型和训练数据,从而更深入地了解它们的工作原理并做出更明智的决策。
- 降低模型幻觉风险: 本地LLM可以帮助你培养对更大的模型的局限性和潜在偏见的意识,使你成为更细致入微的用户。
- 对自己的LLM体验的控制权: 使用本地LLM,你可以调整设置和参数以符合你的需求,而不受单一公司的影响。
- 成就感: 运行一个本地LLM可以是一种令人满意的体验,因为它让你能够控制自己的技术并探索AI的可能性。