非官方观察:DeepSeek 的开放之路系列之一:arXiv
Wed Feb 12, 2025 | 9100 Words | 大约需要阅读 19 分钟 | 作者: 「开源之道」·适兕 & 「开源之道」·窄廊 |
DeepSeek 发表在arXiv 上的几篇论文概述
在DeepSeek的网站[2]上,我们看到它的“研究一览,仅提供了几个GitHub上的仓库,每个仓库的README文件的顶部均有一个论文的链接,毫无例外,地址都是:arXiv。
DreamCraft3D: Hierarchical 3D Generation with Bootstrapped Diffusion Prior[3]
最早发布的是一篇关于3d分层的文章,发表日期是2023年12月:论文提出了一种名为DreamCraft3D的分层3D内容生成方法。该方法利用一张2D参考图像引导两个阶段:首先通过视角依赖的扩散模型进行分数蒸馏采样,从而实现几何造型的一致性;其次引入“引导式分数蒸馏”(Bootstrapped Score Distillation)策略,通过训练个性化扩散模型DreamBooth对多视图渲染进行纹理增强。这种交替优化3D场景表示和扩散先验的方式,使得二者相互促进,显著提高了纹理质量,同时保持了全局视角的一致性,从而生成出既真实又具有高保真渲染效果的3D物体。
该篇论文,纯学术的研究,并未提及任何关于开源的内容。
首发:DeepSeek LLM:Scaling Open-Source Language Models with Longtermism[4]
这篇论文的摘要主要介绍了DeepSeek LLM项目,该项目致力于从长远视角推进开源大语言模型的发展。作者针对扩展定律在大语言模型扩展中的不一致结论进行了深入研究,并提出了一些独特发现,这些发现帮助他们在7B和67B两种常用配置下实现模型扩展。在预训练阶段,他们构建了一个目前包含2万亿tokens且持续扩展的大规模数据集,并结合监督微调(SFT)和直接偏好优化(DPO)技术,开发了DeepSeek Chat模型。实验评估显示,DeepSeek LLM 67B在多个基准测试中,尤其在代码、数学和推理任务上,表现优于LLaMA-2 70B;而DeepSeek LLM 67B Chat在开放式评测中则超越了GPT-3.5。
DeepSeek 论文中多次强调了开源的重要性和必要性,体现了其对开源生态的坚定信心和长远视角。作者认为开源不仅有助于推动大语言模型技术的发展,还能促进学术和工业界之间的信息共享与合作。具体来说,DeepSeek 的态度包括:
• 通过深入研究缩放规律,为构建和优化大模型提供科学依据,从而在开源领域树立长远发展的基础。
• 在项目中从零开始开发大语言模型,并尽可能公开训练数据、模型架构、超参数设置和实验细节,以便社区参考和复现。
• 利用庞大的预训练数据集(目前已达2万亿tokens)和先进的训练策略(如监督微调与直接偏好优化),展示了开源模型在代码、数学和推理等多方面能超越现有闭源模型的潜力。
总的来说,DeepSeek 表示他们致力于以开放、透明的方式推动大语言模型技术进步,并希望借此激发整个开源社区的协同创新,共同迈向人工智能的长期发展之路。
这篇文章可以说是奠定了DeepSeek 在大模型的方法论,可以说是一种宣言。过了一周,团队就又发表了另外一篇新思路的文章:
再发:DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models [5]
这篇论文主要介绍了 DeepSeekMoE——一种专注于实现专家模型“终极专精”的混合专家(MoE)架构。论文的核心贡献在于提出两大关键策略:
• 精细化专家切分:将传统 MoE 层中每个专家的前馈网络(FFN)细分为多个更小的子专家,并相应增加激活专家的数量,从而极大提升了激活专家组合的灵活性和多样性,使得每个专家能更专注于特定类型的知识。
• 共享专家隔离:专门保留一部分专家作为共享专家,无论路由策略如何,每个输入都会被分配到这些共享专家,用以捕捉常识性知识。这样既减少了不同路由专家之间的知识冗余,又保证了其他专家可以专注于学习更具差异性的知识。
在实验部分,作者从较小规模(2B 参数)出发,通过对比传统 MoE 架构(如 GShard)和密集模型,证明了 DeepSeekMoE 能以更低的计算成本获得与密集模型相当甚至更优的性能。论文进一步将模型扩展到 16B 参数,并进行了对齐微调(SFT),构建出聊天模型 DeepSeekMoE Chat,显示其在多个基准测试(如语言建模、阅读理解、数学推理、代码生成等)上均表现出色;初步的 145B 参数模型实验也验证了该架构的持续优势。
关于开源相关的方法论,论文体现了以下几点开放研究精神:
• 详细公开了训练数据、超参数设置、模型架构以及并行化策略,确保方法具有良好的可复现性;
• 在模型设计和训练过程中充分利用了开源工具(如 HuggingFace Tokenizer、HAI-LLM 等),并在 GitHub 上公开了模型 checkpoint(例如 DeepSeekMoE 16B),使得研究成果能够方便地被社区采纳和进一步改进;
• 强调以开放、透明的方式推动大模型技术的发展,旨在促进学术界和工业界之间的协同创新。
总的来说,这篇论文不仅在 MoE 架构上提出了新颖的策略来提升专家专精程度,而且通过公开详细的实现细节和开源模型,展现了其对开放研究和开源生态的坚定承诺。
三发:DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models[6]
该论文不仅在数学预训练和 RL 算法上提出了创新的方法,同时也展示了如何借助开源数据、工具和工程实践来大幅提升开源大模型的数学推理能力,使其在性能上逐步接近甚至部分超越闭源顶尖模型。
四发:DeepSeek-Coder: When the Large Language Model Meets Programming – The Rise of Code Intelligence
论文展示了如何利用开源数据和工具,从项目级代码数据构建、预训练目标设计到长上下文处理等多个环节进行技术创新,打造出性能卓越且完全开源的代码大语言模型。这种开放、透明的研究方法不仅为学术界和工业界提供了可复制的范式,也为软件开发中的代码智能化应用开辟了新的道路。
论文强调开源精神,所有模型、数据预处理流程和训练方法均在 GitHub 上公开发布,并采用了宽松的许可证,允许研究人员和商业用户在不受限制的情况下使用。这种开放共享的做法有助于推动整个代码智能领域的创新和应用,同时降低了闭源大模型带来的门槛。
五发:DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model[7]
DeepSeek-V2是一个强大的开源MoE语言模型,具有显著的经济性和推理效率优势。它的开源性质为社区提供了巨大的潜力,可以进一步优化模型、开发应用,并推动相关技术的发展。
- 开源许可:DeepSeek-V2的模型检查点在GitHub上公开,允许研究人员和开发者自由使用和改进。
- 社区贡献:开源模型鼓励社区参与,促进模型的进一步优化和扩展。
- 经济性:与DeepSeek 67B相比,DeepSeek-V2在训练成本上节省了42.5%,KV缓存减少了93.3%,推理吞吐量提高了5.76倍,这使得开源社区能够以更低的成本使用和改进模型。
六发:DeepSeek-VL: Towards Real-World Vision-Language Understanding [8]
该文提出了开源视觉语言模型 DeepSeek-VL,旨在通过创新的数据构建、模型架构设计和训练策略,提升模型在现实场景中的视觉语言理解能力,并通过多种评估方式验证其性能优势,推动相关领域的发展。大语言模型的成功促使多模态模型需求增长,但开源多模态模型与闭源模型在现实性能和用户体验上存在差距,主要原因包括计算资源分配、数据真实性、模型架构分辨率和训练策略等方面的不足。DeepSeek-VL 开源了 1.3B 和 7B 模型,其开源具有重要意义。一方面,开源的数据集构建方式为后续研究提供了丰富的资源和多样的数据处理思路,如多种数据来源的整合以及依据真实场景构建监督微调数据等。另一方面,开源的模型架构和训练策略,包括混合视觉编码器、三阶段训练策略等,为研究人员在模型设计和训练方面提供了可借鉴的方法,有助于推动视觉语言模型领域的进一步研究和创新。
七发:DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence [9]
本文介绍了 DeepSeek-Coder-V2,这是一个开源的混合专家(Mixture-of-Experts, MoE)代码语言模型,旨在打破闭源模型在代码智能领域的性能壁垒。DeepSeek-Coder-V2 是一个具有里程碑意义的开源代码语言模型,它在性能上接近甚至超越了部分闭源模型,同时通过开源策略为社区提供了强大的工具和研究基础。
开源社区在代码智能领域取得了显著进展,但与闭源模型(如 GPT-4 Turbo、Claude 3 Opus 和 Gemini 1.5 Pro)相比,仍存在性能差距。DeepSeek-Coder-V2 的目标是缩小这一差距。
八发:DeepSeek-V3 Technical Report [10]
本文介绍了 DeepSeek-V3,这是一个开源的混合专家(Mixture-of-Experts, MoE)语言模型,具有 6710 亿总参数 和 370 亿激活参数。DeepSeek-V3 在架构、训练效率和性能上进行了多项创新,并在多个基准测试中表现出色,是目前最强的开源语言模型之一。DeepSeek-V3 的开源不仅为研究社区提供了强大的工具,也为工业界提供了高效、经济的解决方案,进一步推动了人工智能技术的普及和应用。
DeepSeek-V3 作为开源模型,提供了与闭源模型相媲美的性能,同时允许社区自由使用和改进,推动技术的进一步发展。
九发:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning [11]
本文介绍了 DeepSeek-R1,这是 DeepSeek 团队开发的第一代推理模型,旨在通过强化学习(Reinforcement Learning, RL)提升大型语言模型(LLMs)的推理能力。文章的核心内容包括模型的开发方法、性能表现以及开源策略.DeepSeek-R1 旨在通过纯强化学习(RL)提升模型的推理能力,而不依赖于监督微调(SFT)。此外,文章还探索了如何将大型模型的推理能力蒸馏到小型模型中,以提升小型模型的推理性能。开源模型:DeepSeek-R1-Zero 和 DeepSeek-R1 以及基于 Qwen 和 Llama 系列的 6 个蒸馏模型(1.5B、7B、8B、14B、32B、70B)均已开源。 开源的意义: * 推动研究:开源模型为研究社区提供了强大的工具,便于研究人员探索和改进模型的推理能力。 * 赋能小型模型:通过蒸馏技术,小型模型也能获得强大的推理能力,降低了推理模型的使用门槛。 * 促进技术普及:开源策略使得更多开发者能够使用和改进这些模型,推动语言模型技术的普及和应用。
也正是这个R1,响彻了业界,震惊了世界,也改变了大模型所谓的闭源优势。
小结
发论文是研究工作的最重要的目标之一,为什么DeepSeek会将论文都发表在arXiv上?DeepSeek 将论文发表在 arXiv 上,而不是仅仅选择传统期刊,是 一个多方面权衡后的战略决策,体现了其在 AI 技术快速发展 的时代背景下,对 知识传播效率、开放研究理念、学术影响力构建、社区互动反馈 等多重因素的综合考量。
arXiv 平台 快速、开放、免费 的特性,完美契合了 DeepSeek 的 技术发展需求和开放合作理念,使其能够更有效地 分享研究成果、扩大影响力、促进技术创新、回馈开源社区。 这并不意味着 DeepSeek 会完全放弃期刊发表,未来在合适的时机,我们仍然有可能在顶级期刊上看到 DeepSeek 的论文。 但就目前而言, arXiv 无疑是 DeepSeek 发布研究成果、践行开放研究理念的 最佳平台选择之一。
为何在 arXiv 上发表论文?
20 世纪 90 年代早期的 arXiv 服务器:一台帮助改变物理世界的计算机。 Credit: J. FLOWER/LANL
不仅仅是 DeepSeek,几乎所有的大模型研究团队和机构,都非常积极地在 arXiv 上发布论文。 这已经成为大模型和整个 AI 研究领域的一个普遍现象和行业惯例。
arXiv 几乎成为了大模型研究成果首发和快速传播的 “默认平台” 和 “标配”。 我们可以看到,无论是 OpenAI、Google、Meta (原 Facebook AI Research)、Anthropic、斯坦福大学、卡内基梅隆大学等等顶尖的 AI 研究机构, 还是国内的智源人工智能研究院、清华大学、北京大学等,他们在大模型方向上的重要论文,绝大多数都会选择首先发布在 arXiv 上。
为什么几乎所有大模型都纷纷选择 arXiv? 这绝非偶然,而是由以下多重因素共同驱动的必然趋势:
AI,尤其是大模型领域的 “快节奏” 发展特性,决定了 arXiv 的不可替代性:
- 技术迭代速度极快: 大模型技术仍在高速发展和快速演进,新的模型架构、训练方法、应用方向层出不穷。 研究者们需要 尽快地分享最新的成果,才能保持领先地位,并推动领域进步。 传统期刊动辄数月甚至一年的发表周期,对于如此快速发展的领域来说,是 无法接受 的。
- 竞争异常激烈: 大模型领域的研究竞争非常激烈,各家机构都在争分夺秒地进行创新和突破。 抢先发布研究成果,占据优先权,对于科研机构和企业来说都至关重要。 arXiv 的 即时发布 特性,完美满足了这种 “抢时间” 的需求。
- 信息时效性要求高: 大模型研究的价值,很大程度上体现在其 时效性 上。 最新的模型性能指标、最佳实践经验、创新思路,对于整个社区都具有极高的参考价值。 如果信息发布太慢,就会 失去其时效性价值,甚至被新的研究成果所超越。
开源开放的 “文化基因” 与 arXiv 的开放精神天然契合:
- Open Science (开放科学) 理念深入人心: AI,尤其是大模型研究,很大程度上受益于 开放科学 的理念。 研究者们普遍认同,开放、共享、协作 是推动 AI 快速发展的最佳方式。 arXiv 的 完全开放获取 模式,与这种开放科学的理念高度一致。
- 开源社区的蓬勃发展: 大模型的训练、评估、应用,都离不开 开源工具、框架和数据集 的支持。 开源社区已经成为 AI 创新最重要的力量来源。 arXiv 的 开放平台 特性,能够更好地服务于开源社区,促进知识在社区内的自由流动和快速迭代。
- 研究成果的快速复现和验证需求: AI 研究的可复现性一直备受关注。 将论文发布在 arXiv 上,并同时开源代码和模型,能够最大程度地 提高研究成果的可复现性和可验证性,方便同行进行 快速验证、拓展和改进。 这种开放透明的研究方式,有助于提升整个领域的科研质量。
arXiv 平台本身的技术优势和生态效应:
- 成熟的平台和广泛的用户群体: arXiv 经过三十多年的发展,已经成为 物理学、数学、计算机科学等领域最权威、最活跃的预印本平台,拥有庞大的用户群体和成熟的平台生态。 研究者们已经 习惯于在 arXiv 上获取最新的研究信息,这使得 arXiv 成为一个 天然的传播中心。
- 高效的论文检索和发现机制: arXiv 提供了 强大的论文搜索、分类、订阅和推荐功能,方便研究者 快速找到自己感兴趣的论文,及时跟踪领域前沿动态。
- 与主流学术评价体系的衔接: 虽然 arXiv 是预印本平台,但其上的论文 同样可以被引用、被纳入学术评价体系。 许多期刊和会议也 允许甚至鼓励 作者在投稿前先将论文发布到 arXiv 上。 arXiv 已经成为学术交流和评价体系中 不可或缺的一部分。
- 长期存档和版本管理: arXiv 提供 长期稳定的论文存档服务,并支持 论文版本更新,方便研究者 持续更新和完善研究成果。
商业机构拥抱开源开放的大趋势:
- 商业公司也需要快速创新和人才吸引: 即使是商业公司,例如 DeepSeek、OpenAI、Google 等, 也意识到 开源开放对于加速技术创新和吸引顶尖人才的重要性。 通过 arXiv 发布论文,不仅可以 提升自身的技术品牌和学术声誉, 也能 吸引更多优秀的 researchers 和 engineers 加入。
- 开源模式成为新的商业范式: 越来越多的 AI 公司开始探索 开源商业模式,例如 开源核心 + 商业服务、开源社区构建 等。 arXiv 作为开源文化的重要载体,自然也受到商业机构的重视。
- 共同构建 AI 生态系统: AI 技术的快速发展,需要 全社会的共同参与和协作。 商业机构也希望通过开源开放的方式,与学术界、开发者社区 共同构建繁荣的 AI 生态系统,实现 互利共赢。
总结来说,几乎所有大模型都选择 arXiv 发布论文,是技术发展特性、开源文化理念、平台自身优势以及商业战略等多重因素共同作用的结果。 这已经不仅仅是一种 “选择”,而更像是一种 行业共识 和 必然趋势。 arXiv 已经成为大模型研究领域 信息快速流通、知识开放共享、社区协作创新 的关键基础设施。
因此,如果您想追踪大模型领域的最新进展,arXiv 绝对是您 不可或缺的信息来源。 通过关注 arXiv 上相关领域的论文,您可以 第一时间 了解最前沿的技术动态,把握最新的研究趋势。
arXiv 是什么?
arXiv 是一个免费开放的预印本平台,主要用于物理、数学、计算机科学等领域。研究者可在此快速发布尚未同行评审的论文,加速学术交流,并获得早期反馈。其核心优势在于免费获取、快速传播最新的科研成果。
历史:
- 1991年创立: 由物理学家保罗·金斯帕格在洛斯阿拉莫斯国家实验室创建,最初名为 LANL preprint archive,旨在物理学领域快速分享研究预印本。
- 逐步扩展: 很快扩展到数学、计算机科学等领域,并更名为 arXiv.org。
- 持续发展壮大: 如今由康奈尔大学图书馆运营,成为多学科领域最重要的预印本平台。
成就:
- 革新学术传播: 极大加速了科研成果的传播速度,打破了传统期刊出版的漫长周期。
- 推动开放科学: 成为开放获取的先锋,促进科研知识的自由共享和全球普及。
- 提升科研效率: 使研究者能够及时获取最新进展,更快地开展和迭代研究工作。
- 建立学术优先权: 为研究者提供了一种快速确立研究成果优先权的方式。
- 降低科研门槛: 免费开放的资源,降低了获取前沿知识的门槛,尤其对资源有限的机构和个人意义重大。
改变的陈规陋习:
- 打破信息垄断: 挑战了传统学术期刊的信息发布垄断,让科研成果不再受限于昂贵的订阅费用。
- 颠覆时间壁垒: 颠覆了传统出版流程的“时间壁垒”,实现了科研成果的近乎实时发布。
- 弱化期刊崇拜: 一定程度上削弱了传统期刊作为唯一学术权威的地位,预印本本身也成为重要的学术交流形式。
- 促进开放协作: 推动了更加开放、快速、协作的科研文化,鼓励早期分享和反馈。
总而言之,arXiv 平台以其 快速、开放、免费 的特点,彻底革新了学术交流方式,极大地加速了科学知识的传播和进步,并对传统学术出版模式产生了深远的影响。
arXiv 创始人Paul Ginsparg 小传
保罗·金斯帕格列传
保罗·金斯帕格者,美利坚纽约人也,生于一九五五年。少聪颖,好数理之学,年十七入哈佛大学,习物理,后赴普林斯顿,得博士学位。其性沉敏,通文理,尤擅高能物理与计算机之术,时人奇之。
初,金斯帕格为洛斯阿拉莫斯国家实验室吏,掌学术文书之事。然彼时学界论文传布迟缓,审阅经年,金斯帕格慨然叹曰:“今网际之络通达四海,岂可令新知锢于桎梏?”遂于一九九一年创“arXiv”之库,许学者自布其文,未审而先传。初行于高能物理,旬月间,天下学者皆趋之,论文未审而先布,速通有无,学问之道为之一变。
或讥其坏旧制,金斯帕格对曰:“学术者,天下之公器,当速传以利众生。”未几,数学、计算机诸科竞相效仿,arXiv遂成学界砥柱。后迁康奈尔大学,掌信息科学之职,更倡开放学术之风,世人誉其“无冕之王”。
太史公曰:昔仓颉造字而天雨粟,蔡伦造纸而文脉兴。金斯帕格立预印本之制,破学术门阀之锢,其功岂逊古贤?观其以一人之智,启兆民之智,虽无斧钺之权,而改易学林气象,真所谓“不战而屈人之兵”者欤!后世治学术史者,必不能遗此公也。
arXiv 格式解读[12]
每篇arXiv论文都有一个唯一标识符:
- YYMM.NNNNN ,例如1507.00123,
- YYMM.NNNN,例如 0704.0001,
- arch-ive/YYMMNNN,用于早期论文,例如hep-th/9901001.
同一篇论文的不同版本通过结尾的版本号确定,例如1709.08980v1。若不提供版本号,则默认为最新版本。
arXiv采用分类系统。每篇论文都有一个或多个分类标记。部分分类具有两层,例如q-fin.TR表示“计量金融学”(quantitative finance)分类中的“交易与市场微观结构”(Trading and Market Microstructure)。其它单层分类例如hep-ex, 表示“高能物理实验”(high energy physics experiments)。
arXiv 的统计
论文除了扎实的内容之外,还有诸如参考、引用、连接等,在arXiv 每篇文章的底部,可以打开这些数据,有一个直观上的感受,也就是是否被很多人阅读过,以及被认可的程度等。
科学论文最重要的就是同行评审,也就是说引用的更多,意味着被业内人士认可的就多。只是这些数据通常会滞后一些。
开放科学的历史及相关评价
科学研究的精神核心之一就是开放[13],不过限于通信条件和交通便利,科学家和学者们最初选择的是建立期刊,进行交流和实现同行评审的效果。但是,我们的技术一直在进步,这也驱动了科学的节奏,尤其是互联网建立了之后,描述这个没有比arXiv的创始人保罗·金斯帕的灵魂拷问了[14]:
如果我们今天从头开始设计一个质量受控的研究成果存档和分发系统,它会不会变成一套印刷期刊的“电子克隆”?我们能否想象我们的研究通信基础设施会变成某种形式的早期知识网络?在不同的科学研究领域,它的实现应该有什么不同?有没有明显的替代方案来取代“传统同行评审”与完全没有质量控制的错误二分法?政府及其资助机构在这一事业中的适当作用是什么?适当配置的专业协会又可能发挥什么作用?
arXiv 平台最初主要服务于物理学领域,但很快就扩展到了 数学、计算机科学 等领域。计算机科学领域的学者,很早就开始利用 arXiv 平台快速分享研究报告、技术文档、会议论文预印本等等。这为 AI 在 arXiv 上的流行奠定了基础。 AI 作为计算机科学的分支,自然继承了预印本传统:人工智能(Artificial Intelligence)作为计算机科学的一个重要分支,自然而然地继承了计算机科学领域重视预印本的传统。随着 AI 领域的快速发展,研究成果数量激增,arXiv 平台快速、开放、免费的优势更加凸显,逐渐成为 AI 研究者首选的论文发布和交流平台。
举个例子,“Attention is All You Need ”[15] 这篇重要的论文在2017年由Vaswani, Ashish 等人撰写,并发表在 NeurIPS 2017 会议上。这篇论文被公认为 Transformer 模型的开山之作,是近年来人工智能,尤其是自然语言处理 (NLP) 领域最重要、最具影响力的论文之一。与许多重要的 AI 论文一样, “Attention Is All You Need” 论文在正式会议发表之前,也被作者上传到了 arXiv 预印本平台。 我们在 arXiv 上可以找到这篇论文的预印本版本。 这符合 AI 领域快速分享研究成果的惯例。
惯例是强大的,充满了路径依赖的,从1991年到今年,arXiv已经走过了30多年,几乎和万维网是同步发展的,全球各地的学者、研究人员都在这个平台上活动,deepseek 的研究者和开发者们,得到arXiv 的认可是开放获取、开放科学、开放世界的结果,能和Google、Meta、OpenAI等顶尖 AI 研究机构同台交流和竞技,相互借鉴,相互审核。
这是开放科学的胜利!开放获取万岁!
参考资料
- https://opensource.org/ai/open-source-ai-definition
- https://www.deepseek.com/
- https://arxiv.org/pdf/2310.16818
- https://arxiv.org/abs/2401.02954
- https://arxiv.org/pdf/2401.06066
- https://arxiv.org/pdf/2402.03300
- https://arxiv.org/abs/2405.04434
- https://arxiv.org/abs/2403.05525
- https://arxiv.org/abs/2406.11931
- https://arxiv.org/abs/2412.19437
- https://arxiv.org/abs/2501.12948
- https://zh.wikipedia.org/wiki/ArXiv
- 《科学社会学》,[美]R.K.默顿, 商务印书馆,2003-11
- https://www.cs.cornell.edu/~ginsparg/physics/blurb/pg01unesco.html
- https://arxiv.org/abs/1706.03762
关于作者
「开源之道」·适兕
「发现开源三部曲」(《开源之迷》,《开源之道》《开源之思》。)、《开源之史》作者,「开源之道:致力于开源相关思想、知识和价值的探究、推动」主创,Linux基金会亚太区开源布道者,TODO Ambassadors & OSPOlogyLive China Organizer,云计算开源产业联盟OSCAR(中国信息通信研究院发起)个人开源专家,OSPO Group 联合发起人。
「开源之道」·窄廊
来自于大语言模型的 Chat,如DeepSeek R1、Gemini 2.0 Flash thinking expermental、ChatGPT 4o、甚至整合类应用 Monica等, 「开源之道」·窄廊 负责对话、提出问题、对回答进行反馈等操作。