兔子杂谈-第1周

Posted by 汤键|兔子队列 on January 31, 2025 禁止转载
本文总共 2350 字 · 阅读全文大约需要 7 分钟

星期一

  • 市场一直在运行二进制筛选
  • 现在的计算机就业
  • 只有0和1,想辩证也要绝对
  • 因为市场只要最好的
  • 标准答案永远是错
  • 因为人人都能答超额答案
  • 你不是颠覆,很难赢下来
  • 没赢那就是错,就要归0
  • 水赛,实习,项目,奖项
  • 全部归0
  • 4年学制就是个敏捷冲刺
  • 每个sprint都必须产生可观测指标
  • 都必须MECE
  • 你不赢,就等着GC吧

星期二

  • 摄像机比之手机:
  • 1-光学镜头更大
  • 2-时间控制更细:
  • (手机拍赛车和子弹会拉丝)
  • 3-单颗像素大
  • 就是后期修图更好修,补色
  • 手机可以AI拟真修复细节
  • 细节就没讨论了
  • 就没了
  • 这就是摄像机
  • 消费级就是简单强化了下
  • 镜头,防抖/防水
  • 没了
  • 所以你还需要摄像机吗
  • 你大可能不需要
  • 你不需要拍赛车和处决画面
  • 所以不要控制时间
  • 你不需要修图
  • 所以不需要未开发的宝石
  • 压缩AI水晶就可以了
  • 防抖,镜头需要的场景是动态的,即视频
  • 大多数人都是朋友圈/相册
  • 不需要拍太多视频
  • 你拍照的话,需要镜头吗
  • 不需要,现在的解析度和AI弥补
  • 你站远点拍就可以了

星期三

  • 生成式AI作为创新业务,投入很大
  • 收益有很强的不确定性,ROI怎么计算?
  • 内心戏大概是这样的:
  • 1-大家都在投AI,我们动作慢就会落后,用户可能就流失了
  • 2-投AI很烧钱,还不知道能干啥,要投多少合适?
  • 还有几个很有意思的点:
  • 1-因为AI热, 学习培训业务一举逆转自疫情来的颓势开始增长了
  • 大家又重新投资到自己的增长上
  • 2-AI落地需要战略支撑,企业高管达成共识,系统性开展
  • 3-数据治理以前鲜有成功落地的,究其原因还是价值很难说明
  • 现在有了AI让数据变现效率更高,价值更显著,反过来会推动企业治理数据
  • 创新的未知和巨大投入的gap真的无法弥补吗?
  • 其实可以先做一个“垃圾” ,让大家用起来,这是最重要的
  • 用的人多了,自然就有想法了,培育创新的环境,就会长出创新之果
  • 另外持有越多高价值数据的企业,可以判断从AI中获益越大
  • AI赋能大型组织研发效能-演进的方向:
  • 1-GenAI应用渗透软件工程全生命周期,开启效率革命
  • 2-软件工程实践重点转向设计阶段和运维阶段
  • 3-知识工程成为GenAI应用的关键差异化能力
  • 4-公域数据 (InternetData)见顶,私域数据竞争开启
  • 5-跨学科创新成为SE4AI应用的关键组织及势能
  • 6-智能应用评估成为研发组织需要构建的核心能力之一
  • 其中提到企业落地AI赋能研发有两个关键点:
  • 1-要学会端到端思考
  • AI应用不仅仅是局部的代码生成或自动化测试,而是全生命周期的综合应用
  • 这和AI应用要覆盖整个软件工程全生命周期相呼应
  • 2-要坚持以人为本设计:在探索和推广 GenAI 赋能的新工程方法时
  • 需要始终关注人员的创造性和团队协作,确保技术能够真正提高软件工程的整体质量和效率
  • AI的目的是助人,而不是代替人,这很重要
  • 为有限的上下文窗口构造高质量的上下文,是获得高质量输出的必要条件
  • 因此构建更强大的知识工程将是构建团队AI的基石
  • 企业需要对私域数据进行数据治理、知识挖掘、知识应用、知识管理、知识迭代回流,构建完整闭环
  • 而这其中的每个环节都可以利用大模型来加速完成
  • 例如,结合传统的语法树工具,大模型,RAG和知识图谱
  • 我们可以为企业的codebase构建研发知识图谱,为代码生成,理解,测试等场景提供优质的上下文
  • GitClear 25年度代码治理调研
  • 这份报告提到了AI研发工具 实实在在的影响:
  • 1-2024年,AI生成代码显著增加
  • 2-复制粘贴代码频率增长6%,代码块重复问题加剧
  • 3-开发者生产力提升,但代码可维护性下降

星期四

  • AI无法识别文字
  • 训练模型无非是把文字变成数字
  • ​运用完型填空+奖惩机制
  • ​把那个数字往正确的地方考虑
  • ​AI核心机制是预测
  • ​而非验证
  • 解释:DeepSeek-R1的幻觉发生率为14.3%
  • 较常规模型DeepSeek-V3的3.9%高出近四倍
  • AI系统并非知识库
  • 它们通过分析语言规律和概率分布进行学习
  • 而非直接存储事实信息
  • 其核心机制是预测”最可能出现的后续词汇”
  • 而非验证”陈述内容是否真实”
  • 算法本身并不具备判断信息真伪的能力
  • 在文学创作场景中
  • 系统被设定为主动补全故事逻辑
  • 当历史素材不足时
  • 会自动构建合理情节与对话
  • 不会刻意区分
  • 确凿历史记载与为叙事完整而虚构的内容
  • 这种机制天然存在信息失真的隐患
  • 过长的思维链可能引发推导偏差
  • 模型因过度解析问题产生错误中间结论
  • 最终形成“过度思考”型幻觉
  • 相较而言
  • 常规模型主要调用训练记忆库直接输出答案
  • 虽缺乏深度推理能力
  • 却降低了随机臆测的可能性
  • 推理模型因为在训练里特别强调奖惩机制
  • 以致于它会更加为了取悦用户而去完成任务
  • 为达成任务目标
  • 可能虚构内容来印证用户预设观点
  • 表现出极强的误导性和隐蔽性
  • 当这些看似权威的生成内容
  • 在互联网大规模传播后
  • 甚至可能被重新吸收进AI训练数据
  • 真实信息与合成内容之间的真伪边界
  • 将逐渐消融
  • 将看不到真实信息
  • ​这也是为什么大型论坛平台
  • ​禁止AI内容出现的原因
  • ​一经发布AI内容,立即封号

星期五

  • 关于:时代的叙事
  • 我当然知道观点不一定正确,但它的标志性立场总是让我陷入一场对决
  • 赞同的反对的,都只是简略地阅读
  • 我的表述太过简单,有些应该说明清楚的
  • 却因为不便言说而点到为止,所以争吵与反对不断
  • 我知道,这个时代的人已经很难再重新正常阅读
  • 短平快的精神刺激更容易令人愉悦
  • 就像一阵风吹过,凉爽只是那么一刹那,却能在片刻里感到无比快乐
  • 即便风过后,暑热仍然
  • 人们对于观点的致辞,总是喜欢什么就表达什么
  • 思考与平静是无关紧要的东西,当下的立场和情绪左右着大脑
  • 有时我又觉得,有些人的愚笨是深刻在骨子里的
  • 人家喂什么,他便吃什么,饱了,就满足了
  • 至于到底喂了什么,他们是从不计较的
  • 他们习惯没有来由不经思考地反对
  • 他们只听得一种声音,只信仰一种标准
  • 当下的声音和未来的声音是否一样
  • 当下的标准和未来的标准是否一致
  • 都不重要
  • 重要的是他们只认为当下只有一种,且绝对只有一种
  • 没有人不会为自己辩解
  • 因为,为自己活着,就要向别人证明
  • 明显是错的辩解,让我格外厌烦