NingG +

AI 系列:State of Open Source AI Book - 2023 Edition

原文:State of Open Source AI Book - 2023 Edition

作为一位有固定工作时间的数据科学家、机器学习工程师或开发者,要跟踪这个领域的所有创新确实有一定难度。在过去一年里,这个领域取得了巨大的进步。

这份指南可以帮助你摆脱错失信息的焦虑,它包括了开源人工智能领域的所有重要分类,从模型评估到部署,甚至还有一个术语表,方便你快速查阅新框架和工具的定义。

每个部分的开头都提供了一个简洁的TL;DR(Too Long; Didn’t Read)总览。我们会列出每个主题的利与弊以及一般的背景信息,然后进一步深入探讨,包括数据模型的训练和部署方式的示例。

Who is This Guide For?

前提条件

在阅读本书之前,你应该已经了解 MLOps 的基本知识[2, 3, 4],

也就是你应该知道,传统的背景知识,包括:

  1. 数据工程(数据预处理、整理、标注、清洗)

  2. 模型工程(模型训练、架构设计)

  3. 自动化测试(CI 持续集成)

  4. 部署/自动化推断(CD 持续交付)

  5. 监控(日志记录、反馈、数据漂移检测)

适用的读者:

Table of Contents

我们将开源工具、模型 和 MLOps领域,划分为以下章节:

章节 描述
Licences Weights vs Data, Commercial use, Fair use, Pending lawsuits
Evaluation & Datasets Leaderboards & Benchmarks for Text/Visual/Audio models
Models LLaMA 1 vs 2, Stable Diffusion, DALL-E, Persimmon, …
Unaligned Models FraudGPT, WormGPT, PoisonGPT, WizardLM, Falcon
Fine-tuning LLMs, Visual, & Audio models
Model Formats ONNX, GGML, TensorRT
MLOps Engines vLLM, TGI, Triton, BentoML, …
Vector Databases Weaviate, Qdrant, Milvus, Redis, Chroma, …
Software Development toolKits LangChain, LLaMA Index, LiteLLM
Desktop Apps LMStudio, GPT4All, Koboldcpp, …
Hardware NVIDIA CUDA, AMD ROCm, Apple Silicon, Intel, TPUs, …

Conclusion

所有模型都是不准确的,但有些是有用的。 —G.E.P. Box

开源人工智能代表了未来隐私和数据所有权的方向。然而,为了实现这一目标,需要大量的创新。在过去的一年里,开源社区已经展示出他们有多么积极,以将高质量的模型交付给消费者,并在不同的人工智能领域取得了一些重大创新。与此同时,这仅仅是一个开始。为了将结果与中心化解决方案相媲美,需要在多个方向上进行许多改进。

在Prem,我们正在致力于使这成为可能,我们专注于开发者体验和部署,不论是Web开发者,他们对人工智能一无所知,还是经验丰富的数据科学家,他们希望能够快速部署和尝试这些新模型和技术,而不会牺牲隐私。

Glossary#

Alignment 对齐#

Aligned AI models 对齐的人工智能模型 必须实施保护措施,以确保它们有益、诚实和无害 [7]. 通常,这涉及supervised fine-tuning 监督微调 ,然后是强化学习和人类反馈 (RLHF).

Auto-regressive language model 自回归语言模型#

自回归语言模型 AR自回归应用于大语言模型(LLMs)。基本上,它是一个前馈模型,根据上下文(一组单词)来预测下一个单词。

BEC 商业邮件欺诈 #

Business Email Compromise,”Business Email Compromise”(BEC)指的是一种网络犯罪,通常涉及到欺诈分子冒充公司高级管理层或员工的身份,通过电子邮件或其他通信手段,向公司内部的其他员工或合作伙伴发送虚假信息,以骗取资金、敏感信息或其他资源。

这种形式的欺诈旨在欺骗受害者相信他们正在与公司内部的可信任实体进行通信,以便进行非法的财务交易或获取机密信息。BEC 是一种常见的网络欺诈类型,对企业和组织的财务和声誉造成潜在的风险。

Benchmark 基准#

基准是一个经过筛选的特定数据集和设计的执行任务,用于评估模型在实际世界中的性能指标。

基准可以帮助研究人员和从业者更全面地评估模型的实际用途,以便做出更明智的决策和改进。这对于机器学习、人工智能和其他数据驱动领域的性能评估非常重要。

Copyleft 开放许可证#

Copyleft是一种开放许可证类型,它要求知识产权的衍生作品必须使用相同的许可证。它也被称为“保护性”或“相互的”许可证。这种类型的许可证确保了知识产权的持续开放性和自由性,因为它要求后续的作品也必须以相同的开放许可证发布,从而保持了知识共享的原则。这种方式通常与开源软件和知识共享领域相关。

Evaluation 评估#

评估是通过使用定量和定性的性能指标(例如准确性、有效性等)来评估模型在特定任务上的能力。

Fair Dealing 公平使用#

公平使用是英国和英联邦法律中的一项原则,允许在特定条件下(通常是研究、批评、报道或讽刺)在没有事先许可的情况下使用知识产权。

Fair Use 公平使用#

公平使用是美国法律中的一项原则,允许在没有事先许可的情况下使用知识产权(无论许可或版权状态如何),具体取决于使用的目的、知识产权的性质、使用的数量以及对价值的影响。

Foundation model 基础模型#

基础模型是从头开始训练的模型,通常使用大量数据,用于执行通用任务或稍后进行特定任务的微调。

GPU#

图形处理单元 Graphics Processing Unit:最初设计用于加速计算机图像处理,但现在经常用于机器学习中并行 embarrassingly parallel 计算任务。

Hallucination 幻觉#

模型生成的输出,与其训练数据无法解释的现象。

IP 知识产权#

知识产权 Intellectual Property: 人类创造的无形作品(例如代码、文本、艺术),通常受到法律保护,未经作者许可不得使用。

Leaderboard 排行榜#

根据模型在相同基准上的性能指标排名,进行公平的模型比较排名。

LLM 大语言模型#

大型语言模型, Large Language Model 是一种神经网络(通常是包含数十亿参数的 Transformer),旨在通过微调或提示工程,执行自然语言任务。

MLOps 机器学习运维#

机器学习运维 Machine Learning Operations: 使用软件产品和云服务,来使用人工智能的最佳实践。

MoE 专家混合#

专家混合 Mixture-of-Experts 是一种技术,它使用来自模型集合(“专家”)的一个或多个专门模型来解决一般问题。

注意,这与集成模型(将所有模型的结果合并)不同。

Open 开放#

含义模糊的术语,可以指“开源”或“开放许可证”。

Permissive 宽松许可证#

一种允许转售和封闭源修改的开放许可证,通常可以与其他许可证一起在较大的项目中使用。通常,使用的唯一条件是需要注明引用来源的作者姓名。

Perplexity 迷惑度#

迷惑度 Perplexity 是基于熵的度量,是对预测问题的困难度/不确定性的粗略度量。

Public Domain 公有领域#

无人拥有的“开放”知识产权(通常是因为作者放弃了所有权利),可以供任何人无限制使用。在技术上是一种免责声明/非许可证。

RAG 检索增强生成#

检索增强生成 Retrieval Augmented Generation.

RLHF 人类反馈中强化学习#

人类反馈中进行强化学习 Reinforcement Learning from Human Feedback 通常是调整的第二步(在监督微调之后),模型根据人类评估对其输出进行奖励或惩罚。

ROME 模型权重编辑#

Rank-One Model Editing algorithm 算法,通过直接修改已训练模型权重,来修改“学到的”信息。

SIMD 单指令多数据 #

单指令多数据 Single Instruction, Multiple Data 是一种数据级并行处理技术,其中一个计算指令同时应用于多个数据。

SotA 技术前沿#

State of the art, 技术领域的最新发展(不超过1年)。

Supervised fine-tuning 监督微调#

监督微调 SFT 通常是模型调整的第一步,通常后面跟随RLHF

Quantisation 量化#

牺牲精度 Sacrificing precision:为降低硬件内存要求,而牺牲模型权重的精度(例如,使用uint8而不是float32)。

Token 标记#

token 标记 是LLM处理/生成的“文本单元”。单个标记可以表示几个字符或单词,具体取决于所选的标记化方法。标记通常嵌入在模型中。

Transformer 变压器/转换器#

变压器 transformer 是一种使用并行多头注意力机制的神经网络。由于其缩短的训练时间,使其非常适用于LLM中的使用。

Vector Database 矢量数据库#

Vector databases 矢量数据库 提供高效的存储和矢量嵌入的搜索/检索。

Vector Embedding 矢量嵌入#

嵌入 Embedding 是将标记编码为数值向量(数组/列表)。可以将其视为机器语言和人类语言之间的中间步骤,有助于LLM理解人类语言。

Vector Store 矢量存储#

See vector database.

原文地址:https://ningg.top/ai-series-prem-01-intro/
微信公众号 ningg, 联系我

同类文章:

微信搜索: 公众号 ningg, 联系我, 交个朋友.

Top