Skip to content
life

最近两年深陷大模型泡沫中.......😇

Menu
  • 关于我
Menu

MIT总结的为什么在本地跑模型的理由-2025年7月

Posted on 2025年7月27日

MIT Technology review published “How to run an LLM on your laptop”.

总结如下:

  • 隐私保护: 下载一个本地的LLM可以让你控制你的个人数据,不会将你的对话数据用于训练模型。
    1. OpenAI:
      • OpenAI 的 ChatGPT 默认会训练模型时使用用户的聊天数据。
      • 虽然可以选择退出此训练,但最近有法律决定要求 OpenAI 保留所有用户与 ChatGPT 的对话记录。
    2. Google:
      • Google 的 Gemini 模型会使用免费和付费用户的交互数据进行训练。
      • 唯一的退出方式是将聊天记录设置为自动删除,但这也意味着无法访问之前的对话记录。
    3. Anthropic:
      • Anthropic 通常不会使用用户对话数据来训练模型。
      • 但对于"被标记需要信任和安全审查"的对话,Anthropic 仍可能会用于训练。
  • 减少对大型AI公司的依赖: 运行自己的本地LLM可以让你脱离大型AI公司的控制和潜在的偏见模型。
  • 自定义: 本地LLM可以让你选择适合自己的模型和偏好,而不受单一公司的限制。
  • 安全增强: 本地LLM比在线模型更不容易受到数据泄露和其他安全风险的影响。
  • 透明度提高: 你可以检查模型和训练数据,从而更深入地了解它们的工作原理并做出更明智的决策。
  • 降低模型幻觉风险: 本地LLM可以帮助你培养对更大的模型的局限性和潜在偏见的意识,使你成为更细致入微的用户。
  • 对自己的LLM体验的控制权: 使用本地LLM,你可以调整设置和参数以符合你的需求,而不受单一公司的影响。
  • 成就感: 运行一个本地LLM可以是一种令人满意的体验,因为它让你能够控制自己的技术并探索AI的可能性。

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

近期文章

  • MIT总结的为什么在本地跑模型的理由-2025年7月
  • 为什么要有保留的使用cursor等ai编辑器-最近我发现了最大的理由
  • OpenAI与Windsurf交易失败-背后传递的信息
  • 免费使用claude,测试了一下感觉可以用….
  • AI使得剩下的10%,技能价值增长了1000倍。

近期评论

  1. tianyou 发表在 中国宣布计划用水印和元数据标记所有AI生成的内容
  2. animous 发表在 你的Ollama正在被别人调用—Ollama安全漏洞
  3. jingzy 发表在 你的Ollama正在被别人调用—Ollama安全漏洞
  4. wangminsheng 发表在 东荆家村村主任荆方友收回耕地堆放秸秆垃圾,离谱不?
  5. jingzy 发表在 博客升级-2023

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2024 年 4 月
  • 2024 年 1 月
  • 2023 年 10 月
  • 2023 年 9 月
  • 2023 年 8 月
  • 2023 年 7 月

分类

  • devops
  • LLM
  • 基金
  • 想法
  • 新闻
  • 日记
  • 未分类
  • 社交媒体
  • 程序员之道
©2025 程序员小荆 备案号 鲁ICP备20007351号 20007351