www.lepton.ai
2023年3月,阿里巴巴集团副总裁 贾扬清 宣布离职,创立 Lepton AI;2023年10月,Lepton AI 发布了其公开测试版本 (public beta)。
Lepton AI 是一个云原生AI平台,提供了一系列工具和服务,来降低AI应用开发的门槛,帮助开发者更容易地完成创建、部署和扩展任务。也就是说,技术门槛不再是阻碍AI应用开发的主要因素,大家快速进入到创意比拼阶段。
www.xiaoyuzhoufm.com/episode/64c…
贾扬清非常厉害!我们所熟知并常用的深度学习框架 Caffe、TensorFlow、Caffe2Go、Caffe2、PyTorch 等,背后都有他的身影。
你可以在这期播客里,了解贾扬清对这轮大模型浪潮的诸多判断,以及指路时间轴 34:35 可以了解创始人视角的 Lepton.ai 创业方向,即提升系统效率与帮助客户做AI
search.lepton.run
12月初,贾扬清在其社交账号和朋友圈发帖,分享了他基于 Lepton Al 实现的AI搜索引擎 (类似 Perplexity),而且只用了不到500行代码 😎 现在访问上方 👆 这个链接还可以体验~ 不过大佬贴心提醒,资源不多,轻用轻用
据说这 500 行代码会在 LeptonAI 开源,目前还没蹲到,继续一起蹲吧 (* ̄3 ̄)╭
promptcraft.lepton.run
前几天,贾扬清分享了新的AI提示词应用 PromptCraft,可以自动拓展提示词,并生成两张对比图。如上图所示,只需要随意输入简单的单词,PromptCraft 就可以将其拓展成丰富的提示词长句,并生成效果展示图。其中,左侧图是输入提示词的生成效果,右侧图是AI拓展后提示词的生成效果,对比还是很明显的!
PromptCraft 目前是免费使用的阶段,可以玩起来哦!!
这两款应用,极大程度地展示了 Lepton Al 对于开发的加速效果,真的把AI应用的开发门槛「打」下来了!疯狂心动 ing~
lilianweng.github.io/posts/2023-…
2023年4月,AutoGPT 成为 Github 历史上涨星最快的项目,GPT-Engineer、BabyAGI 项目的陆续爆发将 AI Agent 火速带入到开发者和公众视野
2023年6月,Lilian Weng 在其个人博客撰文「LLM Powered Autonomous Agents」对 Agent 进行了系统的论述。需要注意的是,Lilian 是 OpenAI 的 Head of Safety Systems,之前领导过 OpenAI 的 Applied AI 团队。
她将 Agent 定义为 LLM、记忆 (Memory)、任务规划 (Planning Skills)、工具使用 (Tool Use) 的集合,其中,LLM 是核心大脑,Memory、Planning Skills 以及 Tool Use 等则是 Agent 系统实现的三个关键组件。
文章对每个模块的实现路径进行了细致的梳理和说明,并给出了可行的一些实践方法。此外,文末她还指出了当前存在的一些挑战,比如有限的上下文长度、长期规划和任务分解的挑战、自然语言界面的可靠性等 ⋙ 推荐阅读中文翻译版本
AI Agent 的火爆让我们开始畅想 Software 2.0 图景:LLM 作为推理引擎能力不断增强,AI Agent 框架为其提供结构化思考的方法;软件生产进入「3D 打印」时代,可以根据用户需求进行个性化定制;Agent 框架打造每个知识工作者信赖的 AI 工作伙伴
@海外独角兽 这篇文章,非常深刻地探讨了 AI Agent 的四个问题,并系统总结了发展现状和典型 Case,是必读文章之一。
🔔 01. 关于 AI agent 的四个关键问题
What are agents: 怎么理解 AI Agent
- AI agent 是 AI-native software 的开发方法,不是独立的商业赛道或产品形态。
- 优秀的 AI Agent 产品比传统软件更灵活,比 LLM 更可靠。
- Agent 和早期的 LLM-based 应用相比,有几个显著差异点:
So what: 为什么 AI agent 重要
- AI Agent 将使软件行业降低生产成本、提高定制化能力,进入软件的“3D 打印”时代
- LLM 扮演人类思考的系统 1 (快思考) ,AI Agent 扮演人类思考的系统 2 (慢思考)
- 推荐系统让每个人看到个性化的信息, AI Agent 将让每个人有个性化的工作方式,为每一个知识工作者提供 AI 合作伙伴和工作分身
Framework: 理想的 Agent 框架是什么样的
- 记忆:短期记忆 + 长期记忆
- 行动:工具使用+职责扮演+记忆检索+推理+学习+编程
- 决策:事前规划+事后反思
Is it now: 现状如何
- Autonomous Agent 有很强的启发意义,但缺乏可控性,不是未来的商用方向
- Agent Framework 和 Vertical Agent 是 AI agent 商业上最可行的两个方向,需要持续探索人机交互的方式
🔔 02. AI agent landscape
- Agent Framework
- Agent Platform [Case Study:Fixie AI]
- Agent Workflow [Case Study: Voiceflow]
- Vertical Agent
- 2.1 Coding Agent:方向1-LLM-first IDE [Case Study: Cursor],方向2-Generative UI [Case Study: Vercel v0]
- 2.2 个人助理 [Case Study: Lindy.ai]
- 2.3 写作 Agent [Case Study: Hyperwriter]
- 2.4 数据分析 Agent [Case Study: Julius AI]
🔔 03. AI Agent 的未来展望
- AI Agent 需要更模块化的框架,11 月 OpenAI devday 有机会定义标准
- AI agent 概念在强化学习领域早已出现,LLM-based agent 在探索试错的能力上要向 RL-based agent 学习
- AI agent 应用的真正成熟还需要等待 LLM 的优化:复杂推理能力不够强、延迟过高
- Multi-agent 协作会产生比 Chatbot 大一个数量级的文本量,带来成本控制和激励机制的挑战 ⋙ 推荐阅读全文
这是一篇半年度发展汇总,记录并总结了 2023 年下半年至今,大模型应用领域的最新进展。从 GPTs、大模型中间层 (Dify、Coze)、大火的虚拟社交 (Character.AI等) ,到AI Agent 、大模型的多模态能力,还推荐了自己觉得很不错的几个应用。
文章梳理得非常不错!推荐阅读原文哦 ⋙ 推荐阅读原文(略长)
weightythoughts.com/p/most-ai-s…
几乎所有在ChatGPT之后的炒作中诞生的初创公司以及专门给自己贴上“人工智能初创公司”标签的公司都注定无法成功。
作者是一位长期聚焦人工智能投资的VC投资人,他相信AI的价值但坚定认为,当前炒作周期中获得融资的大多数公司都是毫无价值的。
- 你一个周末打造出来,别人也可以:许多AI初创公司只是简单地将现有的AI API进行整合,缺乏真正的创新;这种模式容易复制,即使产品做得精致也难以避免被竞争对手模仿和超越;没有防御性和没有差异化就等于没有利润
- 连Alphabet、Meta或OpenAI都没有任何防御能力:大型科技公司 (如Google、Meta、OpenAI) 的大语言模型等AI技术也缺乏持久的防御性,并不足以成为长期的竞争优势;基本上所有独立发展专有模型的公司都会很快落后,并最终不得不采用全球最先进的技术
- 那么什么具备防御性呢:真正的防御性可能来自于两个方面:一是拥有巨大的计算资源,但这在经济上可能不可行;二是掌握真实世界的专有数据,这些数据难以从互联网获取,需要通过实际的实验和研究来收集,从而为公司提供独特的价值
- 创造的价值并不意味着获取的价值:AI技术创造了社会层面的巨大价值,但这些不一定能转化为公司的经济收益,尤其是初创公司很难从中获得相应的回报,少数获得巨额回报的公司将成为未来的科技巨头 ⋙ 中文版本(翻译得很好)
scorpil.com/post/unders…
补充一份背景:作者在编写「Understanding Generative AI (理解生成式AI)」系列文章,第一篇的话题是「Tokenizer」 ⋙ 在这份日报里已经详细介绍过
这篇文章是作者这个系列的第二篇文章,介绍了神经网络 (Neural Networks) 的基础知识,以及在生成性AI领域中的重要性,重点是如何通过不同的学习和训练策略来处理和生成数据。
以下是内容要点,感兴趣可以和我们一起 Follow 整个系列!
A Short Look into the History 神经网络的历史
- 神经网络技术起源于20世纪40年代和50年代,由 Warren McCulloch 和 Walter Pitts 等人奠定基础
- 1950年代后期,Frank Rosenblatt 引入了感知器 (perceptron),这是机器学习的一个重要早期模型
- 1980年代,反向传播算法 (backpropagation) 的发展标志着多层网络训练的重大突破,直接导致了深度学习革命
- 2010年代,Transformer 模型的出现,特别是用于自然语言处理任务,代表了另一个巨大的飞跃
Neural Network Architecture 神经网络架构
- 神经网络由多层节点 (神经元) 组成,这些节点通过链接相互连接,灵感来源于人脑
- 网络中的权重 (连接强度) 对于处理和解释数据至关重要
- 数据通过网络时,加权连接共同编码抽象概念,使网络能够识别复杂模式并基于学习到的模式生成新数据
Supervised Learning and Backpropagation 监督学习和反向传播
- 调整神经元间连接权重的过程称为神经网络训练; 训练阶段通过调整连接权重来微调网络,以最小化输出与期望结果之间的误差
- 反向传播算法通过从期望输出开始,反向计算误差并调整权重来优化网络
- 反向传播不是单一算法,而是基于共同原则的一系列算法,如梯度下降、随机梯度下降和mini-batch学习
Unsupervised Learning 无监督学习
- 在无监督学习中,网络在没有预设目标的情况下理解数据,适用于探索性数据分析、聚类和降维任务
- 常见的无监督学习技术包括k-means聚类、主成分分析 (PCA) 和自编码器
Hybrid Learning Strategies 混合学习策略
- 现代大型语言模型 (LLMs) 通常结合了监督学习和无监督学习
- 自监督学习和弱监督学习是两种策略,前者从训练数据中生成自己的标签,后者在标记和未标记数据的混合上训练
Knowledge in the Wires 知识在网络中的体现
- 神经网络通过多层结构学习越来越复杂的特征,从基本模式到完整对象的识别
Advanced Techniques 高级技术
- 当代生成性AI的进步包括Transformers、扩散模型、专家混合 (Mixture of Experts) 和生成对抗网络 (GANs) 等
The Journey Ahed 未来展望
- 尽管神经网络为现代AI系统的强大能力奠定了基础,但探索才刚刚开始,未来的“Understanding Generative AI”系列文章将深入探讨这些高级话题和新兴趋势
ShowMeAI知识星球资源编码:R221
Stephen Wolfram 是一位获奖科学家和畅销书作者,也是 Mathematica、WolframAlpha 和 Wolfram Language 等世界上广受尊敬的软件系统创造者。在过去35年的时间里,他一直担任全球科技公司 Wolfram Research 的首席执行官,并负责一系列基础科学领域的突破性进展。
他在2023年2月写了一篇长文「What Is ChatGPT Doing … and Why Does It Work?」来阐述 ChatGPT 的工作原理。很快,文章的同名书籍出版并得到迅速传播。 随后,这门书的中译版本「这就是 ChatGPT」在国内出版并上架读书 App,口碑很不错 (除了序言,可以不读 🤣)
社群伙伴分享了这本书的中文电子版,以下是书籍目录,感兴趣的可以前往 ShowMeAI 星球下载完整版本!
第一篇:ChatGPT 在做什么?它为何能做到这些?
它只是一次添加一个词
概率从何而来
什么是模型
类人任务 (human-like task) 的模型
神经网络
机器学习和神经网络的训练
神经网络训练的实践和学问
"足够大的神经网络当然无所不能!
"嵌入"的概念
ChatGPT 的内部原理
ChatGPT 的训练
在基础训练之外
真正让ChatGPT发挥作用的是什么
意义空间和语义运动定律
语义语法和计算语言的力量
那么,ChatGPT到底在做什么?它为什么能做到这些?
致谢
第二篇:利用 Wolfram Alpha 为 ChatGPT 赋予计算知识超能力
ChatGPT 和 Wolfram|Alpha
一个简单的例子
再举几个例子
前方的路
相关资源
感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!
◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!