关于生成式 AI 应用的一些思考


哎,Codex、Gemini、ClaudeCode 越用越爽,越用也越感觉有点没底(

还记得 22 年那会还在用 Github Copilot 的代码补全,用注释生成思修课大作业,随后 ChatGPT 横空出世让它扮演🐱娘来对话(好吧我们二次元怎么你了),再后来微软 New Bing 稍微支棱了一段时间(应该是最早带网页检索的AI?),以及之后国内模型一系列井喷式的发展 —— 千问、豆包、Deepseek R1(很难想象这玩意才出现一年)、智谱、MiniMax(拒绝了它家 offer 的本科室友现在是有点后悔 hh)······再到现在实习围绕 Agent Runtime Infra 开发高强度做了一段时间,逐渐有了一些比较深刻的感受,在此记录下来,不定时更新。

2025.1.18

  1. LLM 成为技术人员必备的提效工具的趋势不可阻挡,但是使用效果和个人知识广度和深度成正比。借用一句老话:“人的知识面是个圆,圆越大接触到的空白越多。” 只是在 AI 的使用上,知识面的圆越大,能应用 AI 的 Interfaces 越多。

  2. AI CLI 工具不只是终端里的对话界面,它一方面解决了人在文档和网页复制粘贴中转效率低的瓶颈(人类按 Ctrl C+V 的双手作为数据总线太慢了),另一方面直接赋予了 AI 用终端命令操作电脑/服务器的能力,更能模拟人类使用这些设备的工作流程。

  3. CLI 工具+容器是一个比较有意思的做法,通过引入“容器”这个边界,把一个受外界干扰的复杂状态机(宿主机),简化为一个封闭的、确定的黑盒(GPT:很抱歉我搞砸了一切,rm -rf *启动)。Agent 工具在内部运行可以在一定程度上起到熵减的作用。

  4. 只是应用层面的话,我感觉目前各种概念本质上还是在折腾输入的 Prompt。不过也确实,输入质量越高,参数匹配越精确,输出质量越高。有点类似于写 sql(对不起我们臭 CRUD 仔根深蒂固的思维模式是这样的),写得好可以查得更快。

  5. 感觉目前大多数大厂 toC 的 AI 落地模式比较接近传统的 IM 系统(毕竟主要是对话)。

  6. 设计 Agent 一定程度上是对现实世界工作流程的逆向,有时候有点像超级智能的脚本,但是得定义好执行边界。(产品经理是最早用 Agent 的人群,只不过我们现在用人工智能,他们很早就把我们当能工智人用。)

待更新...

声明:AweiP Cache|版权所有,违者必究|如未注明,均为原创|本网站采用BY-NC-SA协议进行授权

转载:转载请注明原文链接 - 关于生成式 AI 应用的一些思考


且愿饮冰而热血不凉