上周我在做一个新项目,需要用到 PR 审查自动化的技能。翻了半天 GitHub 和各种文档,差点放弃的时候,同事推荐我用 find-skills 试试。结果一搜...
这两年,很多人都在做AI短剧。 但真正拉开差距的,早就不是“谁先把视频生成出来”,而是谁先把整套工业化流程跑通。
👉 第一梯队:能直接帮你“写完文章” 👉 第二梯队:能整理,但还差一点成稿感 👉 第三梯队:写出来了,但还没写好 👉 第四梯队:这个场景不太行
在OpenClaw中,除了自带的技能,还可以手动安装其他技能。当然,可根据自身条件开发属于自己的技能。 本文,就让我们一起来学习吧!
Ollama 作为当下最流行的本地大模型运行工具,凭借极简的部署方式、丰富的模型支持、跨平台兼容能力,成为 AI 开发者、运维人员、后端工程师本地运行、测试、集...
该版本共包含 9 次提交、16 个文件变更、260 行新增代码、84 行删除代码,覆盖 训练稳定性、日志控制、Evoformer 多架构支持、ZeRO Stag...
需求文档写完了,但测试工程师读到的和产品经理写的并不是同一个意思。开发实现了功能,但测试用例是在实现之后才开始设计的。发布前密集地补测试,上线后依然有缺陷逃逸。...
这些预言大多数以夸张告终,但它们背后的焦虑是真实的。而当这个问题指向测试工程师时,它有了比以往更多的现实依据:AI可以生成测试用例、自动执行回归、智能分析测试报...
这条假设,是几乎所有测试方法论的底层基石。确定性,让我们得以建立预期、设计断言、判断通过与失败。从单元测试到端到端测试,从等价类划分到边界值分析,整套测试体系的...
产品经理洋洋洒洒讲了两个小时,PPT 翻了四十页,会议室里的人状态各异——有人在认真听,有人在处理邮件,有人在等轮到自己说话,有人在心里默默计算这个需求到底做不...
功能验证跑完了,缺陷已经关闭,上线倒计时却逼着你在一小时内交出一份“专业的测试总结报告”。你打开模板,复制粘贴数据,拼凑几段定性评价,最后在“测试结论”那一栏写...
问题-知识关联追踪:建立核心测试问题集与知识库内容之间的追踪关系——哪类问题的回答主要依赖哪些知识文档。当特定文档发生变更时,系统自动标记与之关联的测试问题为“...
真正需要辨析的,不是“测试岗位会不会减少”,而是两种测试工作模式之间的本质差距:“执行测试”与“定义质量”。前者是一套可被自动化的操作序列,后者是一种无法被复制...
本文将系统拆解 Skills 在软件测试场景下的核心应用逻辑,以及如何从零开始构建一套真正属于自己团队的测试 Skill 体系。
在文本生成、代码补全等场景中,幻觉的代价是“质量略差”;但在测试场景中,幻觉的代价是虚假的安全感。一套基于幻觉生成的测试用例,不仅不能发现缺陷,还会让团队误以为...
人脸识别系统的偏见,在学术研究者 Joy Buolamwini 的测试中被清晰地展现出来:当时主流商业系统对白人男性的识别准确率超过 99%,而对深色皮肤女性的...
这个检查过程,是测试人员在需求阶段最高密度的价值输出——它不是在做测试,而是在确保需求的完整性达到了值得被测试的程度。
这就引出了本文要讨论的核心对比:功能性测试与对抗性测试,两者都是 AI 应用质量保障的组成部分,但覆盖的风险维度完全不同。功能性测试回答“系统能不能正常工作”,...
传统做法是在 VS Code 内部使用分屏(Split Editor),但这有个局限:所有窗口都在同一个 VS Code 窗口内。
loguru、pydantic、httpx都是很好用的库,这篇文章整理的是另一类:多数开发者不知道它们存在,却在不少资深工程师的 requirements.tx...