新型生产关系赋能人工智能时代

时间:2024-09-20 编辑: 浏览:(303)

作者 |:Frank-Zhang.eth,Twitter :@dvzhangtz

笔者认为,人工智能本身代表新型生产力,是人类的发展方向;Web3与A的结合将使得Web3成为新时代的新型生产关系,成为组织未来人类社会,避免 AI 巨头形成绝对垄断的救赎之路。

作为一名长期奋战在 Web3 一级投资一线,以及曾经的 AI研究者,写一篇赛道 mapping,弟认为自己责无旁贷。

一、本文目标

为了更充分地理解 A,我们需要了解:

1.A的一些基础概念如:什么是机器学习,为何需要大语言模型。

2.AI开发的步骡如:数据获取,模型预训练,模型fine tune,模型使用;都是在做什么。

3.一些新兴方向如:外置知识库,联邦学习,ZKML,FHEML,promptlearning,能力神经元。

4.整个 A链条上对应 Web3 都有哪些项目。

5.对于整个 AI链条 什么环节具有比较大的价值 或者说容易出大项目。

在描述这些概念的时候,笔者会尽量不使用公式、定义,而是用打比方的方式进行描述。

本文尽可能覆盖了较多的新名词,笔者希望在读者心里留下个印象,如果未来遇到,可以回来查其处于知识结构中的什么位置。

二、基础概念

Part 1

当今咱们熟悉的 web3+ai项目,他们的技术是属于人工智能 中的 机器学习 中的 神经网络这一思路。

下面的这段主要界定清楚一些基础概念:人工智能、机器学习、神经网络、训练、损失函数、梯度下降、强化学习、专家系统。

Part 2

人工智能

定义:人工智能是研究开发能够模拟、延申、扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能的研究目的是促使智能机器,会:听,看,说,思考,学习,行动

我的定义:机器给的结果和人给的结果一样,真假难辨(图灵测试)

Part 3

专家系统

如果一件事 有明确的步骤、需要用到的知识:专家系统

Part 4

如果一件事 难以描述怎么做到:

1.有标注数据:机器学习,比如分析文本中的情感

例子:需要的训练数据

配钥匙师傅问我:”你配吗”neutral

隔壁很壮的小王问我:”你配吗“-negative

2.几乎无标注数据:强化学习,比如 下棋

Part 5

神经网络是怎么教会机器一个知识的

机器学习现在涉及的知识和范围很广,我们这里仅仅讨论机器学习中最经典的套路,神经网络。

神经网络是怎么教会机器一个知识的呢?我们可以类比为我们:

如果想教会小狗如何在垫子上小便(经典案例,无不良指向)——(如果想教会机器一个知识)

方法1:如果狗狗在垫子小便则奖励块肉,如果不在则打屁股

方法2:如果狗狗在垫子小便则奖励块肉,如果不在则打屁股;而且距离垫子越远,打得越狠(计算损失函数)

方法3:狗狗每走一步,就进行一次判定:

如果是朝向垫子走,则奖励块肉,如果不是朝向垫子走,则打屁股

(每进行一次训练,计算一次损失函数)

方法4: 狗狗每走一步,就进行一次判定

如果是朝向垫子走,则奖励块肉,如果不是朝向垫

子走,则打屁股;

并且给狗狗在指向垫子的方向摆一块肉,吸引狗狗往垫子走

(每进行一次训练,计算一次损失函数,之后向着能最好降低损失函数的方向,进行梯度下降)

Part 6

为什么最近十年神经网络突飞猛进?

因为最近十年人类在 算力、数据、算法上突飞猛进。

算力:神经网络其实上个世纪就被提出了,但是当时的硬件运行神经网络,耗时过长。但随着本世纪芯片技术的发展,计算机芯片运算能力以18个月翻一倍的速度发展。甚至还出现了 GPU这种擅长并行运算的芯片,这使得神经网络在运算时间上变得“可接受”。

数据:社交媒体,互联网上沉淀了大量训练数据大厂们也有相关的自动化需求。

模型:在有算力,有数据的情况下,研究者研究出了一系列更高效,更准确的模型。

“算力”、“数据”、“模型”也被成为 人工智能 三要素。

Part 7

大语言模型(LLM)为什么其很重要

为什么要关注:今天我们欢聚于此,是因为大家对Al+ web3 很好奇;而A 火是因为 ChatGPT;ChatGPT 就属于 大语言模型。

为什么需要大语言模型:我们上面说了,机器学是需要训练数据的,但是大规模数据标注成本太高;大语言模型以一种巧妙的方式解决了这个问题。

Part8

Bert——第一个 大语言模型

我们没有训练数据怎么办?一句人话本身就是一段标注。我们可以使用完型填空法创造数据。

我们可以在一段话之中挖空,将一些词挖出来,让 transformer架构(不重要)的模型预测这些地方应该填写什么词(让狗狗找垫子);

如果模型预测错了,测一些损失函数,梯度下降(狗狗如果是朝向垫子走,则奖励块肉,如果不是朝向垫子走,则打屁股,并且给狗狗在指向垫子的方向摆一块肉,吸引狗狗往垫子走)

这样所有互联网上的文段,都能成为训练数据。这样的一个训练过程也就叫做“预训练”,所以大语言模型也称为预训练模型。这样的模型可以给他一句话,让他去一个词一个词的猜,下面应该说什么词。这个体验和我们现在使用 chatgpt 是一样的。

我对预训练的理解:预训练让机器从语料中学到了人类通用的知识,并培养了“语感”。

Part 9

大语言模型的后续发展

在 Bert 提出之后,大家发现这玩意真好用!

只需要将模型变得更大,训练数据变得更多,效果就能越来越好。这不是无脑冲就好了。

训练数据暴涨:Bert 使用的是全部 wikipedia、书籍数据训练的,后来的训练数据扩展到全网的英文数据,后扩展到全网全语言

模型参数量飞速上涨

三、AI开发的步骤

Part 1

预训练数据获取

(本步骤一般仅大厂/大研究所会做)预训练一般会需要巨量数据,需要对全网各类网页进行爬取,积累以 TB为单位的数据,然后进行预处理

模型预训练(本步骤一般仅大厂/大研究所会做)在完成数据收集之后,需要调集大量算力,数百张 A100/TPU 级别算力进行预训练

Part 2

模型二次预训练

(option)预训练让机器从语料中学到了人类通用的知识,并培养了“语感”,但如果我们想要让模型有某个领域的更多知识,可以拿这个领域的语料,灌入模型进行二次预训练。

比如美团,作为一个餐饮外卖平台,需要的大模型就应该了解更多的餐饮外卖知识。所以美团拿美团点评业务语料进行二次预训练,开发出MT-Bert.这样得到的模型在相关场景上效果更好。

我对二次预训练的理解:二次预训练让模型成为某个场景下的专家

Part 3

模型 fine tune 训练

(option)预训练模型如果想要成为某个任务上的专家,比如情感分类的专家,主题抽取的专家,说读理解的专家;可以使用该任务上的数据,对模型进行 fine tune。

但这里就需要标注数据,比如如果需要情感分类数据,就需要类似下面的数据:

配钥匙师傅问我:”你配吗”neutral

隔壁很壮的小王问我:”你配吗“negative

我对二次预训练的理解:Fine tune让模型成为某个任务下的专家

需要注意,模型的训练都需要显卡间大量传输数据。当前咱们 Al+ web3 有一大类项目是 分布式算力--世界各地的人将自己的闲置机器贡献出来做某些事情。但想用这种算力做完整的分布式预训练,是非常非常难的;想做做分布式 Fine tune 训练,也需要很巧妙的设计。因为显卡间传输信息的时间将高于计算的时间。

Part 4

需要注意,模型的训练都需要显卡间大量传输数据。当前咱们 Al+web3 有一大类项目是 分布式算力——世界各地的人将自己的闲置机器贡献出来做力某些事情。但想用这种算力做完整的分布式预训练,是非常非常难的;想做做分布式 Fine tune 训练,也需要很巧妙的设计。因为显卡间传输信息的时间将高于计算的时间。

Part 5

模型使用

模型使用,也称为 模型推理(inference)。这指的是模型在完成训练之后进行一次使用的过程。

相比训练,模型推理并不需要显卡大量传输数据,所以 分布式 推理 是个相对容易的事情。

四、大模型的最新应用

Part 1

外置知识库

出现原因:我们希望模型知道一些少量我们领域的知识,但又不希望花大成本再训练模型

方法:将大量 pdf 数据打包到 向量数据库 之中,将其作为背景信息作为输入

案例:百度云一朵、Myshell

Promptlearning

出现原因:我们感觉外置知识库还无法满足 我们对模型的定制化需求,但又不想负担整个模型的调参训练

方法:不对模型进行训练,仅使用训练数据,去学应该写一个什么样的 Prompt

案例:广泛应用于当今

Part 2

联邦学习(Federated Learning,FL)

出现原因:在训练模型的使用,我们需要提供自己的数据,这会泄露我们隐私,这对于一些金融、医疗机构是不可接受的

方法:每一家机构都在本地使用数据训练模型,然后将模型集中到一个地方进行模型融合

案例:Flock

FHEML

出现原因:联邦学习需要每个参与方本地都训练个模型,但这对每个参与方门槛太高了

方法:使用 FHE的手段进行全同态加密,是的模型可以用加密后的数据直接训练

缺点:极慢,极贵

案例:ZAMA,Privasea

Part 3

ZKML

出现原因:我们在使用别人提供的模型服务的时候,希望确认其真的在按我们的要求,提供模型服务,而不是使用一个小模型再瞎搞

方法:让其用ZK的手段生成个证明,证明其确实在做他号称他做了的运算

缺点:很慢,很贵

案例:Modulus

能力神经元(skillneuron)

出现原因:当今模型就像是一个黑箱,我们喂了他很多训练数据,但他到底学到了什么我们不知道;我们希望能有某种方式,让模型在某个特定方向优化,比如具有更强的情感感知能力,具有更高的道德水平

方法:模型就像大脑,有些区域的神经元管理情感,有些区域管理道德,找出这些节点,我们就可以针对性的优化

案例:未来方向

五、A链条上对应 Web3 项目分类方式

Part 1

笔者会分为三大类:

Infra:去中心化A的基础设施

中间件:让Infra 可以更好服务应用层

应用层:一些直接面向 C端/B端的应用

Part 2

Infra 层:AI的基础设施永远是三大类:数据算力算法(模型)

去中心化算法(模型):

@TheBittensorHub 研报:x.com/dvzhangtz/stat..@flock_ io

去中心化算力:

通用算力: @akashnet_, @ionet

专用算力:@rendernetwork(渲染)、@gensynai(AI),@heuris_ai(Al)@exa_bits (A)(AD,

去中心化数据:

数据标注:@PublciAl_,QuestLab

存储:IPFS,FIL

Oracle: Chainlink

索引:The Graph

Part 3

中间件:如何让Infra 可以更好服务应用层

隐私: @zama fhe, @Privasea_ai

验证: EZKL, @ModulusLabs , @gizatechxyz

应用层:应用其实其实很难全部分类,只能列举其中最具代表性的几项

数据分析

@_kaitoai,@DuneAnalytics ,Adot

Agent

Market: @myshell_ai

Web3知识聊天机器人:@qnaweb3

帮人做操作:@autonolas

六、什么样的地方更容易出大项目?

首先,与其他领域类似,Infra 容易出大项目,尤其是去中心化模型、去中心化算力,笔者感觉其边际成本较低。

然后,在与 @owenliang60 哥的启发下,笔者感到应用层 如果能出现一个杀手级应用,其也会成为顶级大项目。

回顾大模型的历史,是 ChatGPT这个杀手级应用将其推向封口浪尖,其不是什么技术上的大迭代,而是针对 Chat 这个任务的优化。也许在A+Web3 领域未来也会出现像 Stepn/Friendtech 这样的现象级应用,我们拭目以待

最新 更多 >
  • 1 币安宣布首届币安世界锦标赛,奖金超过400万美元

    根据6月4日向Finbold披露的最新信息,全球区块链生态系统币安宣布启动首届币安世界锦标赛。 该活动从今天开始,持续到6月25日,拥有该平台历史上最大的奖励池,总额超过420万美元,证明了其对社区的承诺。 锦标赛向新用户和现有用户开放,让每个人都能深入了解加密货币的世界,参与各种活动,展示他们的交易策略,并获得奖励。 Binance世界锦标赛 受全球体育赛事带来的兴奋和友谊感的启发,币安世界锦标

  • 2 元宇宙助力实体经济创新发展论坛即将开幕

    2024年6月6日,由玛特宇宙与《浙商》杂志联合主办的元宇宙助力实体经济创新发展论坛将在杭州举行。本次论坛以“以数助实,万物新生”为主题,汇聚众多专家学者和行业精英,探讨交流以元宇宙为代表的数字化技术如何助力实体经济、催生万物新生的新商业生态。本次论坛活动共有三大亮点。行业领袖云集,共绘发展蓝图论坛将汇聚国内顶尖的专家学者与行业领军人物,包括元宇宙AIGC专家邢杰、两岸大湾区产业联盟秘书长陈椿茂、

  • 3 全面解读并行EVM:是新噱头还是EVM公链的终局?

    1. 什么是并行EVM? 并行 Ethereum 虚拟机(Parallel EVM)是传统 Ethereum 虚拟机(EVM)的升级版本,通过同时处理多个不冲突的交易,提升了区块链交易吞吐量,提高了交易处理速度和效率。 以太坊虚拟机(EVM)是以太坊网络的共识和执行机制,负责处理和执行交易。但在传统 EVM 中,交易和智能合约执行按顺序进行。每笔交易必须一个接一个地处理,形成线性有序的进程。这种

  • 4 分析师表示,自美国证券交易委员会批准ETH ETF上市以来,价值300000000美元的以太坊已离开加密货币交易所

    一位链上分析师和交易员表示,自现货ETH交易所交易基金上市以来,加密货币交易所一直在见证以太坊的大规模外流。 Ali Martinez告诉他在社交媒体平台X上的63500名粉丝,自美国证券交易委员会(SEC)上月批准现货ETH ETF以来,市场参与者已从加密货币交易所取出777000 ETH,价值30亿美元。 资料来源:Ali Martinez/X 在撰写本文时,以太坊的交易价格为3776美元,

  • 5 MoonBag加密货币预售超出预期,导致投资者逃离Bonk&Floki Inu

    你想成为下一个加密货币成功故事的一部分吗?模因币的世界为那些能够尽早发现获胜者的人提供了难以置信的机会。随着新项目的频繁推出,关键是要迅速行动,明智投资。 如果你不知道,MoonBag Crypto已经成为模因币宇宙中最新的轰动事件。MoonBag的预售已经突破了100万美元大关,导致投资者对Bonk和Floki Inu等其他流行表情包硬币的兴趣发生了重大转变。凭借其独特的功能和稳健的增长战略,

  • 6 金砖国家:73家央行买入美元,抛弃人民币

    主要国家的央行正在囤积美元和黄金,而不是人民币。随着人民币利息的下降,储备银行经理们正在为美元的高收益率积累美元。在金砖国家希望将美元作为世界储备货币的地位铲除之际,这一事态发展提振了美元。 另请阅读:97个国家准备参加6月在俄罗斯举行的金砖国家2024 金砖国家在成员国和其他发展中国家之间的贸易中使用人民币而不是美元。现在,各国央行都在与人民币保持距离,美元也越来越引人注目。高收益的美元是市场上

  • 7 以太坊ETF可能在前五个月吸引40亿美元:K33研究

    K33 Research的数据显示,以太坊现货ETF的表现将与基于比特币的前辈非常相似,在推出后的五个月内吸引了40亿美元的资金流入。 这家加密货币经纪公司在周二的一份报告中写道:“这一估计是基于相对的全球ETH资产管理(AUM)市场份额,而BTC市场份额为28%。”。同样,芝加哥商品交易所(CME)的ETH开放利率目前为比特币的23%,反映了另一个以机构为重点的市场的类似市场份额。 截至6月3日

  • 8 狗狗币的社会情绪趋于悲观,跌至3月份的水平,这对价格意味着什么

    加密货币分析师Ali Martinez最近透露了围绕狗狗币(DOGE)的悲观情绪。有趣的是,他表示,这可能是投资最重要的模因币的好机会,因为事情可能很快就会变得乐观。 狗狗币周围的熊情绪 马丁内斯在X(前推特)的一篇帖子中提到,市场对狗狗币的情绪与2月初一样悲观。具体而言,这位加密货币分析师指的是Dogecoin的社交量和加权情绪,这表明目前人们对模因币的负面情绪。 来源:X 这个社交量指标是指

  • 9 SwissBorg确保完全遵守FCA的Finprom规则,英国社区受益

    【新闻稿-爱沙尼亚塔林,2024年6月4日】 SwissBorg是欧洲领先的加密货币投资平台,它自豪地宣布完全遵守金融行为监管局(FCA)关于在英国进行金融促销的严格规定。作为确保在英国实现这一合规性的少数加密货币平台之一,瑞士博格确保英国用户具备驾驭加密货币投资世界的必要知识和技能。 瑞士博格采取了强有力的措施来遵守英国的金融促销法规,强调用户教育和保护。作为这一承诺的一部分,所有英国用户在开始

  • 10 5月18日,现在投资的5个最佳Altcoins——GameStop、Immutable X、Akash Network、Injective

    利益相关者已经开始更加关注现实世界资产的互操作性和标记化。尽管市场情绪悲观,但这些替代币的价值仍在飙升。目标是确定投资者可以投资的最佳altcoins。 随着人们对今年牛市的兴奋,投资者需要了解市场上即将上涨的重要替代币。本文概述了altcoins在不断增长的加密货币市场中越来越受欢迎。这些硬币具有独特的特点,有可能为投资者带来巨大收益。 现在投资的5个最佳Altcoin Immutable X的