ribber66 (@ribber) 在 和大家聊一下,大家是如何使用大模型自动化测试的 中发帖
目前感觉 AI 编程瓶颈在代码审核和测试上。我之前使 Chrome DevTools MCP 进行端到端测试,后来改成了用 Playwright-cli,比较省 token,还可以让他自己录屏,给我视频说明自己已经完成了。但是感觉消耗额度依然很多,只在多次纠正模型结果无效时,才让他调 Playwright-cli 自己闭环修正。坛友们是怎么处理的呢?测试驱动开发?给需求时写清楚用例然后让模型测试?让模型写 playwright 脚本而不是实时调?