推荐一个把“手脚”长在本地的 AI Agent

最近一直在折腾各种 AI Agent ,从早期的 AutoGPT 到后来的各种网页端助手,说实话,用过了那么多的 AI 工具,其实真正有生产力的没几个尤其是前端时间被吹嘘的某 claw 。 对于这些产品,主要存在几个大问题: 隐私问题:有些敏感的系统操作和本地文件,传到云端总觉得后脑勺发凉。 营销过度:实际体验与宣传的差异过大,根本无法达到那种完全自动化的过程 “手脚”断层:大部分 AI 只能在对话框里跟我“指点江山”,一让它动动我的本地文件或者剪个视频,它就开始道歉。 响应延迟:云端转圈圈的那个 Loading 动画,真的把生产力磨没了。 直到最近刷到一个挺有意思的国产项目,叫 Avelia...

涨薪小技巧

明天就是愚人节了 超级适合提离职的,老板留我就提涨薪,不留我就说是今天是愚人节开玩笑的 关注我 给你分享更多涨薪小知识🌚~...

分享个 TurboQuant 的小工具站

做了个小工具站,感兴趣的朋友可以看看:turbo-quant.com 起因是看到 Google Research 三月底发了 TurboQuant 这篇论文,讲 KV cache 压缩的,3-bit 量化能省 6 倍显存。但原论文读起来比较硬核,网上的中文资料要么是机翻 要么就是把"3-bit 零损失"这个标题党复读一遍。 所以借助 AI 花了点时间整了这个站,主要几个东西: 算法拆解:PolarQuant + QJL 两阶段到底在干嘛,用人话讲清楚 显存计算器:选个模型( Llama 3.1 、Mistral 这些),填上下文长度,直接算 KV cache 吃多少显存,对比压缩前后 Turb...

快乐的秘密!(3 2 1 法则)

这里定义快乐是一种客观感受。感受的来源分为现在与未来。未来分为推测的未来,与想要的未来。由此划分三个区域:A1: 现在,A2: 推测的未来,A3: 想要的未来人的注意力可以在这三个区域之间切换,或者两个区域,或者总观。注意力放在哪些区域,就享受该区域带来的客观感受。很明显,快乐的最高状态是把这三个区域全部点亮。那么,这三个区域,哪个区域最容易被点亮呢?A3 最容易被点亮,想象的未来由我们自己做主。这个未来也是点亮剩下两个区域的火苗。第二个容易被点亮的区域是哪个区域呢?A2 是其次容易被点亮的区域,而并不是 A1 。纵然我们可以通过吃喝玩乐等即时满足的手段使 A1 得到暂时的快乐,但这个快乐不持...

我开源了一个在线简历编辑器,支持 5 套模板、JSON 配置驱动和 PDF 导出

最近把自己做的一个简历编辑器项目整理后开源了,放出来和大家分享一下。 项目地址: https://github.com/beyondlong/resume-builder 这个项目主要做的是“在线编辑简历 + 模板预览 + 导出打印”这件事,当前支持: 5 套简历模板 JSON 配置驱动编辑 中英文切换 浏览器自动保存 导出 JSON 配置 浏览器打印 PDF 这次我也顺手把项目结构做了一轮整理,当前主链已经收敛成: index.tsx -> ResumeConfigContext -> ResumeEditor 模板层也抽了共享 view model / sections / l...

又一次被自己制造的陷阱压垮了

一直做东西也很快,自觉工作效率一直很高。 到 AI 时代也有在努力学习,然后自然还是提速了很多,慢慢就陷入一个陷阱。 活永远也做不完,做的越快,派给你的活越多,派给别人的越少。原本要一个月做完的东西,现在让你半个月,一两个礼拜就要出。 现在还找我去上课,做导师,分享 AI 提效的经验。 猛然发现这个提效对我没有带来任何优势,只有无穷的工作量。...

[分享] 从安全工程视角看 AI 助手:如何通过手动配置优化“豆包”的隐私水位

各位 V 友, 最近在研究大模型应用( LLM-App )的端到端数据合规实践,顺便分析了主流 AI 助手的默认策略。以“豆包( Doubao )”为例,分享一个通过简单配置即可提升个人/企业数据防护能力的 Tips 。 1. 背景与合规视角: 在大模型产品中,为了持续优化模型表现,通常会引入“改进计划”。从 ISO 或安全审计的角度来看,用户应当具备“知情同意”下的自主配置权。 2. 优化配置路径: 如果你在办公、代码调试或涉及敏感文案的场景下使用,建议手动复核以下设置,以实现更高密度的隐私隔离: 入口:进入 [设置] 菜单。 个性化控制:关闭 [个性化内容推荐] ,减少基于行为数据的画像生...