NEAR为什么在英伟达大会上莫名其妙地成为AI头部公链?

AI NEAR 公链 2024-03-13 120

摘要:而Transformer架构是如今LLMs大型语言模型训练ChatGPT的基础架构,足以证明NEAR老板在成立NEAR前确实有AI大模型系统的创建和领导经验。2)NRAR曾在NEARCON2023上推出过NEARTasks,目标是为了进行人工智能模型的的训练和改进,简单来说,模型训练需求方(Vendor)可以在平台发布任务请求,并上传基础数据素材,用户(Tasker)可以参与进行任务答题,为数据进...

近期,NEAR的创始人@ilblackdragon在即将亮相英伟达AI大会的消息引起了人们对NEAR公链的关注。不少人纳闷,NEAR公链本来是全身心投入链抽象领域的,为何突然变成了人工智能领域的头部公链?接下来我将分享一些观察,并顺便科普一些AI模型训练的知识。

首先,NEAR的创始人Illia Polosukhin在成立NEAR之前有着长时间的人工智能背景,是Transformer架构的共同构建者。而Transformer架构正是如今LLMs大型语言模型训练ChatGPT的基础架构,这足以证明NEAR的创始人在人工智能大型系统的创建和领导方面有着丰富的经验。

其次,NEAR曾在NEARCON 2023上推出过NEAR Tasks,旨在进行人工智能模型的训练和改进。简而言之,模型训练需求方可以在平台发布任务请求,并上传基础数据素材,用户可以参与任务答题,为数据进行文本标注和图像识别等人工操作。任务完成后,平台会给用户NEAR代币奖励,并将这些经过人工标注的数据用于训练相应的AI模型。

NEAR Tasks其实就是想通过社会化人工工程为AI模型提供基础服务,这一点非常重要。因为人工标注是机器开展深度学习模型的基础,没有高质量的标注数据,模型就无法高效学习,且标注数据量不够大会限制模型性能。

此外,NEAR还在生态系统中提供AI Agent服务,用来自动执行用户的链上行为和操作,从而提升用户链上交互体验。而NEAR强大的DA能力可以让它在AI数据来源的可追溯性上发挥作用,追踪AI模型训练数据的有效性和真实性。

总之,借助高性能的链功能,NEAR在AI领域的技术延展和叙事引导远比纯链抽象更为深刻。这一波AI赋能再一次放大了人们的想象力,而长期关注NEAR在链抽象上的布局和产品推进,AI无疑会成为一个不错的加分项和牛市催化剂。

原文链接:[原文链接]

相关推荐