5 月 23 日,EpiK 铭识协议团队与社区守护者跟社区小伙伴发起邀约,开启 EpiK 首期「围炉夜话」,持续扩大共识,一起向 AI 布道 50 年。此次会议,围绕 EpiK 愿景及社区发展进展进行核心解读,并就守护者提出的问题进行了深度交流。整个分享将会分为 EpiK 愿景解读,EpiK 解决方案,EpiK AMA 三个部分。
01 - EpiK 愿景解读
EpiK的愿景是构建人类永恒知识库赋能AI认知。为什么有这个愿景?这要从我们的日常生活中遇到的一些场景说起。
1-1 如何应对信息爆炸?
信息爆炸时代,大家生活中会遇到类似这样的问题。其中一个体会就是买东西太难了,并不是因为买东西的渠道变少了,而是琳琅满目的购物渠道让我们无从选择更合适自己的那个。
举例来说,要买一口不粘锅,天猫、京东、抖音、社区团购,这些渠道都在向我们推销商品,但我们无从甄别这些信息的真假。如果我们要选择一款最合适的不粘锅,就需要我们去考察不粘锅的原理、评测标准等等信息,一件简单的事情,需要我们耗费更多的精力去做决策,这无疑增加了我们的决策负担。事实上,每天我们都要做大量的决策,如果都如买不粘锅那样,人脑的算力是不够的。而 AI 需要能够帮助我们来做辅助决策,这也是新时代对 AI 的需求。
十四五规划有三次提到了人工智能,这三次在人工智能的阐述里面都强调了人工智能需要拥有学习推理和决策能力。事实上,我们身边有很多 AI 应用,比如苹果的 Siri,亚马逊的 Echo,小米的小爱同学以及百度的小度,但它们的智慧还远远不够辅助我们日常的决策。
我们有什么办法能让它们更加智能呢?
1-2 AI 的下个阶段是什么?
在业界,AI 发展被划分为 4 个阶段。分别是计算阶段、感知阶段、认知阶段以及意识阶段。而我们正处于感知与认知的交界的阶段。
当前图像识别语音识别人脸识别已经在很多领域得以迅速推广,但这些识别 AI 对于数据来说,只是数据输入与输出的拟合。比如说我们给了机器大量的人脸标注的数据,让他去来标注一些新的人脸,但在这个过程中,其实 AI 对于人脸这张图片的信息不理解的,只是把它当做一个个比特位的数据在处理。这样是远远不够的,AI 需要理解认知这个世界,这就对认知智能提出了急切的需求。
在认知智能阶段,AI 将具备对输入数据的认知和推理能力,而认知和推理能力来自哪里呢?这与我们的解决方案息息相关,在这里我们总结为人类各领域专家向 AI 传道。
1-3 为什么要向 AI 传道?
举一个简单的例子:相信很多人都看过三国演义,在看完这本书后,可能得出一个“曹操喜欢寡妇”的结论。而这个结论的推出,则是根据我们的一些先验知识。比如曹操是谁,寡妇是什么意思,有哪些外在表现,然后根据这些知识来来推理出这个结论。
整个过程向我们阐述了一个很朴素的道理:举一反三及类比学习,这个学习过程极大地依赖于一个已存在的背景知识库。这个知识库质量越高越完整,人类推理及决策能力则越强。
背景知识库对于人类来说或许较为简单,通过阅读、听觉视觉等在人脑里构建这样的背景知识库,并随时提取应用。但对于机器来说却很难去操作。因此,我们尝试让 AI 也拥有一个这样的背景知识库,把人类所能够理解的知识,转变成 AI 能够理解的知识的样子。
AI 能够理解的知识长什么样子呢?我们将之称为知识图谱,知识图谱是 AI 能够理解的人类知识的一种表达方式,也是目前唯一公认可行的一种表达方式,是一种非常结构化的图数据。AI 可以借助知识图谱数据去构建它自己的背景知识库,去理解和认知这个世界。
人类知识到知识图谱不是一蹴而就的,中间需要经历建模、采集、消歧和融合等多个步骤,其中基本每个过程都会涉及到人的参与,我们需要各领域专家参与知识图谱的建模,需要数据标注师来帮忙完成采集、消歧和融合的工作,还需要数据验收员来验收数据质量,验收好的数据就可以喂给 AI 进行学习,构建其背景知识库。这个过程就像老师在学校给学生授课一样,构建知识图谱的过程就是人类在向 AI 传道授业解惑的过程。
1-4 知识图谱构建的挑战
技术红利也将带来新的技术垄断。知识图谱的垄断存在于哪呢?其实就存在知识图谱本身,因为它的构建成本极其高。
首先,人类的知识其实是非常复杂的而且所涉及的面所以非常的广,从最细微的日常生活中如何去煮一个鸡蛋到到更宏大的国家层面如何去造原子弹全部囊括其中。在每一个领域其实都有这方面的专家,需要这些专家将这些知识转化成各领域的知识图谱。由于多数领域的信息量都非常庞大,不同领域单一的专家无法将所拥有的知识全部梳理出来,需要更多的人去帮他做知识采集以及标记等,这个人工成本是非常高昂的。
为此,构建高品质知识图谱的高昂成本让很多中小型公司望而却步,只能被迫依赖于第三方的知识图谱。但这将埋藏一个巨大的隐患,比如我们问身边的辅助决策 AI,买一个什么样的保险比较好?它可能依据背后的知识库给我们一些决策上的建议,如果说它背后依赖的背景知识库是不公开的、是无法监督的、是有倾向性的、甚至是可篡改的,那么 AI 的认知就会受到背景知识库管理者的影响,给我们有失客观的决策建议,尤瓦尔·赫拉利在《未来简史》中所说的借助算法操控万民的神应该也不过如此。
我们需要可信任的 AI 背景知识库。
02 - EpiK 解决方案
知识图谱将成为认知智能时代的基础设施,EpiK Protocol 铭识协议的初衷正是要解决这一基础设施的信任危机,并借助区块链的数据确权能力,降低这一基础设施共建共享共益的成本。
2-1 Web3.0 新机遇
在 Web3.0 时代,我们有了区块链技术。区块链的本质在于数据确认,降低了信任成本,这就允许在大家在彼此不认识的情况下协作共建成为可能。在比特币和以太坊的时代,昂贵的存储费用让我们的协作网络无法变得很大,只能一起协作管理数据量较小的账本信息;而去中心化存储出现之后,这种协作的网络变得更大,我们不仅仅可以一起协作来管理一个账本,我们还可以一起协作来管理一个数据库。
而铭识协议就是我们通过去中心化存储来让大家一起来协作管理数据库,具体而言就是知识图谱数据库。
在这个构想之下,EpiK Protocol 铭识协议希望构建一个可信共建共享共益的协作网络,让拥有不同知识背景的社区成员在彼此不认识的情况下,可以协作完成知识图谱数据的建模、采集、验收和应用。在这个协作网络中,具体有四个主要角色:领域专家、赏金猎人、知识矿工以及知识网关。
领域专家负责梳理各个领域的知识框架,并组织各方力量去完善知识图谱;赏金猎人则是配合领域专家,帮助领域专家完善知识图谱的人;被梳理且被完善的知识图谱由知识矿工通过去中心化存储备份到 EpiK Protocol 网络中;而用户则可以通过知识网关来获取他们需要的知识图谱类型以及下载浏览存在链上的知识图谱数据,并且这些数据可以帮助 AI 构建不同领域的背景知识库,帮助人类在不同领域降低决策成本。
在 EpiK 网络中,每个主要角色激励相容,每个角色追求自己利益最大化的同时,目标都是构建高质量知识图谱。下面我们详细介绍每个角色的权益。
2-2 领域专家 Domain Expert
构建知识图谱就是将人类知识变成 AI 所能够理解的数据格式的过程,为此,做这件事情的各领域专家就像 AI 的老师。在 EpiK Protocol 铭识协议中,任何一个人都可以成为 AI 的老师,他们可以是教授学者、KOL、博主作家、行业专家甚至可以是养花达人、古董玩家等等。事实上,做知识图谱并非是一个枯燥的事情,它也是一个将自己兴趣或专注的领域通过框架梳理的形式转变成知识传承的方式,传递给更多人,传授给 AI,让 AI 了解这些知识,从而帮助人类进行推理决策。
当然,对于领域专家也是有一些基本要求的。一方面,对于某个领域需要有健全的知识框架,让更多的人来帮助填充;另一方面,在整理好框架后,需要领域专家去梳理框架背后的知识图谱数据,需要从各个地方采集知识数据填充到知识图谱之中,在此过程中要对数据质量进行把关。举个例子,张飞和刘备是结拜兄弟。当在采集数据中出现张飞和刘备是亲兄弟时,领域专家要对这个数据进行调整和修改才能最终上传到链上。
如何了解一个领域专家是否能胜任他所服务领域的知识图谱任务呢?这需要领域专家告诉社区 TA 的来历、背景以及一切与胜任这个职能的所有资料,TA 梳理什么领域的数据,TA 的知识框架是什么样子。这些内容都会经过社区投票,最终遴选出合适的领域专家。通过已有领域专家提名并在社区获得 10w EPK 投票的申请者将正式成为领域专家,拥有提名其他领域专家、上传数据、享受领域专家收益的多项权限。
那么具体领域专家如何向 AI 传道呢?知识图谱共分为三层:概念层、实体层以及属性层。
首先领域专家要做的是梳理概念层的逻辑,每个概念层都由各种概念构成,比如电影就是一个抽象的概念,电影里各种概念与概念间是有关系的。如电影跟一些人物概念,演员的概念等等,电影与演员之间就包含了演员这种关系,电影和角色之前就包含了角色关系。在概念下面又会有一些属性,比如演员有出生日期这种属性,而电影也有出生日期这种属性。
但对于一个领域来说,梳理概念层的知识框架是个庞杂的工作,为此,我们推荐他首先梳理一个骨架它不需要太复杂,比如说整个影视领域,我们可能就先梳理一个骨架梳理完这个骨架之后,我们后续可以不断的去扩充它。比如演员还有他的配偶,婚姻关系等一系列属性,影视作品不仅有电视剧、电影,电影还要分院线电影以及网大,从而不断去扩增知识图谱,然后不断丰富知识图谱里面的内容。
其实,丰富知识图谱的过程也是不断加深未来使用知识图谱的人工智能的治理过程,就像我们神经元越稠密,其解决问题的能力越高。对于知识图谱来说,知识图谱越稠密,人工智能所能掌握的知识越丰富,其推理及决策能力将越强。
领域专家需要做的第二件事情,如何将这些概念填充起来。比如电影其实有非常多的实体,漫威系列就属于电影实体,是概念层下的具体实体。领域专家可以从科幻电影或红色电影等某个垂直领域将这一类实体标注出来,然后再扩展到另一个类别,这是一个逐步填充的过程。但有了概念之后,领域专家需要告知系统,我们要填充哪些实体,这样系统就会根据概念层去生成一些实体标注任务。比如我们现在有一个李晨的实体,那么就会生成出李晨的生日;1921这个电影实体,我们可以去问上映时间,当我们用了一系列电影的演员角色后,我们可以通过问1921和李晨是否有包含演员的关系,通过这种方式来完成知识图谱的填充。
在这个填充过程中有两种方式,一个是领域专家自己去采集数据,比如成熟的电影结构化的数据库,数据量越大,在链上获得的收益也越大。另一种方式,是非结构数据,这些数据比较分散和隐蔽,比如无法上网得到最终的结果,这些信息可能藏在某些文章或视频当中,这时就需要发起人工采集的任务。
当前,我们通过知识大陆来做知识众包平台来采集更多的信息,但以上两种方式,对于领域专家来说最重要的还是要不断扩充自己图谱的规模和它的数据量,提升自己收益。
2-2 赏金猎人 Bounty Hunter
既然上文提到了知识大陆,那么我们接下来就来说说赏金猎人。
其实,赏金猎人要做的事情很具体,就是帮助各个领域采集他们需要的知识碎片。当然这个过程中不仅包含了采集,也包含验证。比如说,一个采集任务结束之后,没有人来保证采集数据一定是准确的,当任务量大以后,更无法要求专家去一个个查验。因此,考虑到这种情况的存在,我们设计了一种方式,当数据采集上来后,我们将这个答案询问另外的10个人,通过社交化的手段来进行筛选,将准确率更为高的知识传给领域专家,这些领域专家再去做验证。
大家如果在知识大陆体验过语音任务,应该会遇到这两种任务,一种是收集语音,另外一种就是验证采集数据的准确性。当然语音数据从严格意义上来说,并非知识图谱数据。我们之所以选择语音数据库作为首个项目,其实是因为这类任务没有特定的知识储备要求,非常适合来作为教学任务。在主网上线前,我们会上一些领域知识采集类的题库,让大家提前体验真实知识图谱采集和验证的过程。
同为采集和验证需求,相比于倡导开源知识运动的组织 Mozilla,知识大陆在上线后的表现是相当不俗的。在中文语音数据上,知识大陆的语音库项目目前在上线不到三周的时间里,采集有效语音数据 17,000+ 条,而 Mozilla Common Voice 三年才采集 3500 多条,而且 Mozilla 采用的是三个人中两人确认数据无误就归档,验证率为 66%,而知识大陆则是 10 个人 8 个人觉得没问题才可以归档,验证率为 80%,相对更严格,另外,Mozilla数据下载后如地域、年龄等一些标签是缺失的,而知识大陆数据则是完整的。在数据统计层面,Mozilla Common Voice 无法统计覆盖了哪些区域,而知识大陆可以准确统计目前的数据覆盖了中国 34 个省 5 个自治区以及四个直辖市中的 30 个省级行政区的 173 个城市。
为此,通过知识大陆这一套机制去采集知识和验证知识的效果是远远超出预想。相信知识大陆不仅在采集语音数据,未来采集各个领域知识方面比现有的解决方案都更高效。
值得一提的是,自从知识大陆上线语音采集项目以来,一些企业已经向我们提出了新的采集需求,比如耳机智能控制。一类是机场广播通知,我们通过去识别机场广播里面的航班号能够去自动的提醒买了航班的乘客的各类注意事项如登机、安检等等。另一类是轻声语音,有很多人在录音的时候是在被窝里录的,这其实是很特殊的语音需求,在环境非常安静情况下,不打扰其他人,去做语音控制。
在知识大陆中贡献知识可以获得奖励,而贡献高质量知识还将有额外知识徽章的福利。如果参与过知识大陆语音数据采集的都知道,通过体验唐诗宋词的采集任务来获得奖励。我们从这些语音中挑选了一些品质较高的音频,将它们合成为了一首完整的诗朗读,凡是在合成诗朗读中被采纳的语音贡献者,都将获得一份语音题库的知识徽章。
对于唐诗宋词是这样,对于医药知识,你可能获得一张药物的信息卡片,对于 NBA 你可能获得球星的信息卡片,而这些都会生成 NFT,代表了大家为信息贡献了高质量的知识从而获得 NFT,未来 NFT 也会有机会参与抵押挖矿。
2-3 知识矿工 Knowledge Miner
8核16G内存,250G SSD和3T HD,15Mb 带宽,就可以启动一台 Daemon 服务器,而一个 Daemon 服务器又可以带多个 Miner 节点。家里的一些游戏机就足够支撑这个服务,使得我们真正能做到充分调度每台合适的闲置机器。
如今,EpiK 测试网预挖在持续进行中,每天 1w ERC20-EPK 将会按照测试网参与者每日收益多少分发给所有参与者。主网上线后,每日收益将会扩大近 24 倍,一天有 24-25w EPK 分发给所有矿工。
这里讲解下关于奖励的逻辑,按照 30 秒一个高度,一天的时间有2880个高度。而根据目前每天1万个奖励值来说,就是 2880 个高度平分 1 万个奖励值,每个高度 3.472 个奖励值。如果这个高度只出一个块,那出块这个 Miner 就可以拿到 3.472 个奖励值;如果出了 5 个块,5 个 Miners 平分 3.472 奖励值,就是每人 0.694 个奖励值。这也意味着,确保机器稳定性,增加爆块率是获得奖励的捷径。具体来说,出块数量的期望值和算力成正比,Miner越多,期望值越稳定。
另外,有公网 IP 的机器如果把公网 IP 配置上,还可以在出块收益之外享受带宽奖励。
2-4 知识网关 Knowledge Gateway
在知识矿工将这些数据上传到链上后,一些AI公司要怎么使用这些数据呢?网关就是这种读取数据功能。
这里涉及到数据在链上的格式问题,我们开源了一个叫 Encoder 的工程,所有的领域专家他采集出来的图谱信息其实是一个三元组,每个数据都有三个元素,两个节点一个边。这些图谱数据通过 Encoder 加工成为一种特殊的 binlog 格式,也就是日志格式。这种日志格式就包含了三元组一些增删改查的信息,最终这些日志会上传到链上。
各方使用数据时,可以选择读那几个领域的数据,比如做保险,可以选择保险相关领域都读下来。使用者通过本地开源一个服务器叫 Replayer,通过 Replayer 下载的这些日志文件 replay,也就是重新执行一遍,执行完的结果就会存在本地的图谱数据库当中。
这个数据库对外就可以提供非常高效的API 访问服务,目前我们这一套用的是Nebula图谱数据库,跟京东使用的图数据库性能是一致的,欢迎大家去体验。
以上就是四个角色的划分。按照主网上线后的奖励分配,对于每天新产生的 EPK 来说、其中的 75% 直接归属到矿工,但其中有一个释放逻辑,你当天获得收益,7 天后才会释放,然后再过 7 天后线性释放,因此当天收益 14 天才会释放完毕,也就是 14 天后到达钱包。
对于领域专家来说,他们会根据自己的贡献的总量来去瓜分,每天产生的 EPK 的 9% 的一个奖金池,因为不同的领域其实它的知识规模是不一样的。比如说有一些非常冷门的知识领域,它可能的信息数量就没有那么多,有一些领域相关的文献就会比较多,所以不同的领域之间,虽然我们鼓励大家去贡献更多的数据,但是不得不承认不同的领域之间它的数据量其实是有区别的。为此,在这个里面我们其实是根据大家贡献的数据量开了三次根号之后的一个权重来去瓜分奖励,所以尽可能在算法层面上做的更合理。
当然这个里面这个是纯客观的一个评判,我们并不觉得某一个领域的知识会比另一个领域的知识更加的重要,这个是从算法层面上,我们得有这样一个基本的评判标准,但是不得不否认不否认在某一些市场的场景或者某一些时期某一类的知识可能就更受欢迎或者更需求量更高,这个时候其实我们会从基金会拿出一些钱定期的来去做一些活动。比如说这个月我们可能就来扶持国宝相关的知识信息的采集。这个主观的部分交给基金会去做,纯客观的部分我们已经编码到了程序里面,大家就来瓜分 9% 的池子。
当然所有领域专家,他的产生都来自于已经是领域专家的提名以及大家的投票。每一个领域专家至少要获得 10 万票以上,才能够激活他哪个专家的资格。这个里面就会涉及到大家要去给他投票,一个 EPK 就代表一票,所有投票的用户其实是丧失了 EPK 的流动性的,因此,我们在整个大的池子里面超了 1% 形成了一个投票池所有参与投票的人都可以来去根据他们投票的多少来去瓜分那1%的池子,鼓励大家去参与跟领域专家的协作。
就还剩下一个 15%,15% 我们其实是会有一个动态的波动。当大家要读链上数据时,就要抵押的 EPK 来获得数据访问流量,1 EPK的抵押意味着每天有 10Mb 的数据下载流量,每日刷新。有很多人想要去读链上的数据的话,你就需要去抵押更多的 EPK,这个里面就会有一个抵押因子出来,根据抵押因子我们会来去瓜分剩下来 15% 的收益。这个抵押因子越高,代表着全网有更多的人通过抵押想要读链上的数据,就要鼓励矿工提供更好的带宽供大家下载,这 15% 里面更多的钱我们就会给到提供数据下载服务的矿工。如果抵押因子比较低,这代表说现在全网其实没有多少人想要读数据,这个时候我们会把这 15% 更多的给到赏金猎人所需要的一个叫知识基金的账户里面去,然后账户里面钱会来给所有的赏金猎人来发奖励让赏金猎人帮助领域专家去收集更多的数据。
因此,对于矿工来说最好的选择,应该去扶持一些领域专家,然后让这些领域专家能够去弄更多有价值的数据,来把抵押因子提上来,然后自己就能够获得更高的收益。对于领域专家来说,他也应该去采集更多的有效数据,供外部抵押访问这样抵押的越多,他手上 EPK 也就更有价值,因此,我们希望在这样一个协作方式之下,所有人为了追求自己的利益最大化去想方设法的去给链上贡献数据。
这将是一场至少持续 50 年的从碳基生命向硅基生命的一个史诗级的布道。
我们希望这 50 年的时间,我们一起能真的做出一些有价值的东西,推动 AI 向下一个阶段进化。
03 - EpiK AMA
1 - 合作伙伴或者说投资方更看重的是咱们项目的哪些方面?
比如跟清华合作的健康链,清华对于这方面的一个诉求是他需要有一个大家可信任的协作平台,能够把医疗各个医疗单位的数据能够协同起来,这个事儿其实在商业场景下面很难做。因为大家各个医疗机构都不愿意去相信一个商业公司来做这件事情。但是对于清华这样一个学术机构来说,他们做这件事的阻力是非常的小,很多医院非常愿意把数据贡献给他们。但是前提是他们需要有这样一个协作的网络,能够把大家的数据很好的协同起来,然后大家在这个里面的贡献能够获得一些回报,比如积分。通过这些积分未来他们可以获得一些权益。另外,东北大学同济大学和上海电信学院有大量的这种知识图谱构建的需求,在构建的过程中,他们现在非常缺乏一个知识图谱的知识采集的工具,一个有效的成本足够低的工具帮助他们能够把不同领域他们的知识采集需求能够放下去以及把这些知识数据给采集上来。
比如跟上海立信合作的中华脸谱的项目,核心跟国家此前宣传讲好家乡故事是一个系列。当下要拉动内需,就要将家乡故事讲话,不仅仅是文化也包括产品等文创产品。中华脸谱下属里面下属有一个子项目叫做 4 万个乡村的产业结构数据,主要是做中国各地产业结构,从而帮助我们更好的调度各地区资源。
还有,OpenKG 是本身就是一个开放的中文知识图谱,国内国内在做知识图谱领域的学者基本上都在这个体系里面。对于他们来说,他们有企业端收集知识标注的需求,但需要一个标志工具来帮助他们更高效的采集数据。
Singularity 和 CSAGI 是一个做通用人工智能安全性,他们要做的事情是现在的人工智能实际上是不可控的。像上文说到的现在AI就是个黑盒子,现在在感知领域我们去做人脸识别,做语音识别,其实人工智能对于这些数据来说都是黑盒子,他不理解这个里面究竟是什么信息,他只知道你给我这些比特位,我就可以给你一个输出的比特位,但是在这种情况下面,我们很难相信说未来我们身边的人工智能真的不会做恶。这个组织其实是在做这件事情的过程中,他们需要去采集大量的知识数据去做一些实验。
Imerit 和 Data.Union 是海外的做知识数据采集的公司,OpenSLR 是国内做知识数据采集的公司,他们希望跟我们协作,在一部分领域采集数据。
Ocean Protocol 大家应该比较熟悉,前段时间70亿美金神矿就是他们孵化的项目。他们有大量的数据但缺交易市场而在交易需求里又缺数据,因此,希望与我们合作来弥补两方面的问题。他们一部分是需要有新的数据,我们这边能够采集新的知识数据;另外一方面是他那边有一些新的数据需求,需要有一些去中心化的承接方。
上文提到 Mozilla 本身就是一个开源知识运动的倡导者,他们本身也在做开源的知识收集,当他们发现我们现在的效率比它是更高,希望是通过我们这个方式来提升它现在采集效率。
当前,互联网以及实体行业所面临的需求,因此整个体系其实需求量是蛮大的,包括国家跟清华协作的一个白皮书把知识知识图谱已经定义成了认知智能的基础设施新的基建。预估知识图谱在 2024 年给中国带来的经济收益超过 1000 亿人民币。因此,这将是一个上升市场也是一个增量市场。
2 - 目前融资能否支撑 EpiK 走的更远?
其实这个里面真正考验大家的还是团队对于自己的定位在哪,究竟要做多少事情。因为对于一个区块链公司来说,容易陷入到一个什么都想做,什么好像都需要做一个状态。因为 EpiK 是一个开放的生态开放平台。对于我们来说,其实我们对于自己要做什么事非常明确的。我们所有的资源都集中在去帮助大家构建一个协作网络帮助各个网络里面的角色去构建它所需要的核心工具。举个例子,领域专家就是要怎么去定义图谱,如何对外发放任务,如何回收上链,如何做知识采集与验证,如何获得收益等等。对于矿工来说,能不能更低成本的去存储这些数据获得收益,对于网关来说,能不能快速的去定义我所想要哪些领域,能迅速的把这些领域所需要的投数据库构建在本地对外提供服务。
其实我们的工作更多的就是帮助大家去构建在这样完全去中心化的环境下面彼此协作的工具,这些工具最后会怎么来被使用,需求会引导到哪个方向,我们早期会来引导,但是不是我们最终的资源投入的重心。因为我们相信在不同领域的领域专家会比我们更了解他所在的领域的数据该怎么来被应用,具体应用场景他们比我们更懂。我们其实是希望有这么好的工具能够吸引这些更懂不同领域的人,加入到我们的生态里面来,以一个完全去中心化的姿态运转,只有在这种开放的环境下面,我们才有可能不断的去吸纳外部的资源,而不是不断的去消耗我们内部的资源。
这就像 Android 和 IOS,封闭条件下,大家投入的资金资源都会更多,但是开放条件下,我们成长的速度会比封闭条件下的系统要更快,10 年来安卓的成绩是肉眼可见的。对于这样一个定位来说,我们现在融到了钱足够支撑我们2~3年的时间来把这个东西做得非常的好。
3 - 大所都关注 EpiK 什么?
对于任何一家大所来说,对外一定是要寻求利益。热度对于交易体量其实肯定是会关注的,然后另外除了这个点以外,我感觉这一波 DeFi 的洗礼之后,三大所比较在意赌赛道。DeFi 在18年的时候谁看得起,没想到迅速规模化成长。NFT 4年前就存在,直至今日才爆发。所以对于大所来说布局赛道是很重要的一个点。我们现在采的赛道算是比较独一无二的,存储赛道一定会带来跟实体的结合,这部分结合应该能带来进一步的出圈。我们现在实际上是存储加人工智能的赛道,更进一步说是人工智能下属的认知智能的赛道,我们非常的坚信赛道是一定能出圈。
—
EpiK Protocol 铭识协议
铭识协议致力于借助区块链技术打造一个去中心化的共建共享共益的安全可信知识图谱协作平台,通过可信存储、可信激励、可信治理和可信金融四大核心能力,以极低的管理成本组织全球知识社区用户共同协作,将人类各领域知识转化为知识图谱永久保存,开阔 AI 的认知,推动认知智能时代的到来。
合约地址:0xdaf88906ac1de12ba2b1d2f7bfc94e9638ac40c4
EPIK 官网 :https://www.epik-protocol.io/
EPIK 钱包:https://epik-protocol.io/wallet
EPIK 知识采集:https://epikg.com
EPIK 浏览器:https://explorer.epik-protocol.io
EPIK GitHub:https://github.com/EpiK-Protocol
TG的链接: https://t.me/EpikProtocol
中文社区:http://epk.fun